ML | Regresión lineal

La regresión lineal es un algoritmo de aprendizaje automático basado en el aprendizaje supervisado . Realiza una tarea de regresión . La regresión modela un valor de predicción objetivo basado en variables independientes. Se utiliza principalmente para averiguar la relación entre las variables y la previsión. Los diferentes modelos de regresión difieren según el tipo de relación entre las variables dependientes e independientes que están considerando y la cantidad de variables independientes que se utilizan.

Machine-Learning-Course

La regresión lineal realiza la tarea de predecir el valor de una variable dependiente (y) en función de una variable independiente dada (x). Entonces, esta técnica de regresión descubre una relación lineal entre x (entrada) e y (salida). Por lo tanto, el nombre es Regresión lineal.
En la figura anterior, X (entrada) es la experiencia laboral e Y (salida) es el salario de una persona. La línea de regresión es la línea de mejor ajuste para nuestro modelo.

Función de hipótesis para regresión lineal:

Mientras entrenamos el modelo, se nos proporciona:
x: datos de entrenamiento de entrada (univariante: una variable de entrada (parámetro))
y: etiquetas de datos (aprendizaje supervisado)

Al entrenar el modelo, se ajusta a la mejor línea para predecir el valor de y para un valor dado de x. El modelo obtiene la mejor línea de ajuste de regresión al encontrar los mejores valores de θ 1 y θ 2 .
θ 1 : intersección
θ 2 : coeficiente de x

Una vez que encontramos los mejores valores de θ 1 y θ 2 , obtenemos la línea de mejor ajuste. Entonces, cuando finalmente usemos nuestro modelo para la predicción, predecirá el valor de y para el valor de entrada de x.

¿Cómo actualizar los valores de θ 1 y θ 2 para obtener la mejor línea de ajuste?

Función de costo (J):
al lograr la línea de regresión de mejor ajuste, el modelo tiene como objetivo predecir el valor y de modo que la diferencia de error entre el valor predicho y el valor real sea mínima. Por lo tanto, es muy importante actualizar los valores de θ 1 y θ 2 para alcanzar el mejor valor que minimice el error entre el valor de y predicho (pred) y el valor de y verdadero (y).

La función de costo (J) de la regresión lineal es el error cuadrático medio (RMSE) entre el valor y predicho (pred) y el valor y verdadero (y).

Descenso de gradiente :
para actualizar los valores de θ 1 y θ 2 con el fin de reducir la función de costo (minimizando el valor RMSE) y logrando la mejor línea de ajuste, el modelo usa el Descenso de gradiente. La idea es comenzar con valores aleatorios de θ 1 y θ 2 y luego actualizar iterativamente los valores, alcanzando el costo mínimo.

Publicación traducida automáticamente

Artículo escrito por Mohit Gupta_OMG 🙂 y traducido por Barcelona Geeks. The original can be accessed here. Licence: CCBY-SA

Deja una respuesta

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *