En el caso de la regresión lineal, la función de costo es:
Pero para la regresión logística,
Dará como resultado una función de costo no convexa. Pero esto da como resultado una función de costo con valores óptimos locales, lo cual es un gran problema para Gradient Descent para calcular los valores óptimos globales.
Entonces, para la regresión logística, la función de costo es
Si y = 1
Costo = 0 Si y = 1, h θ (x) = 1
Pero como,
h θ (x) -> 0
Costo -> Infinito
Si y = 0
Asi que,
Para ajustar el parámetro θ , J(θ) debe minimizarse y para ello se requiere el descenso de gradiente.
Descenso de gradiente: se parece a la regresión lineal, pero la diferencia radica en la hipótesis h θ (x)
Publicación traducida automáticamente
Artículo escrito por Mohit Gupta_OMG 🙂 y traducido por Barcelona Geeks. The original can be accessed here. Licence: CCBY-SA