Interpretación de los resultados de la regresión lineal mediante OLS Resumen

Este artículo es para contarle la interpretación completa de la tabla de resumen de regresión. Hay muchos programas estadísticos que se usan para el análisis de regresión como Matlab, Minitab, spss, R, etc. pero este artículo usa python. La interpretación es la misma para otras herramientas también. Este artículo necesita los conceptos básicos de estadística, incluido el conocimiento básico de regresión, grados de libertad, desviación estándar, suma residual de cuadrados (RSS), ESS, estadísticas t, etc. 

En la regresión hay dos tipos de variables, es decir, la variable dependiente (también llamada variable explicada) y la variable independiente (variable explicativa). 

La línea de regresión utilizada aquí es,

\hat{Y}_{i}=-3.2002+0.7529 X_{i}

A continuación se presenta la tabla resumen de la regresión.

                                    OLS Regression Results                            
        ==============================================================================
        Dep. Variable:                      y   R-squared:                       0.669
        Model:                            OLS   Adj. R-squared:                  0.667
        Method:                 Least Squares   F-statistic:                     299.2
        Date:                Mon, 01 Mar 2021   Prob (F-statistic):           2.33e-37
        Time:                        16:19:34   Log-Likelihood:                -88.686
        No. Observations:                 150   AIC:                             181.4
        Df Residuals:                     148   BIC:                             187.4
        Df Model:                           1                                         
        Covariance Type:            nonrobust                                         
        ==============================================================================
                         coef    std err          t      P>|t|      [0.025      0.975]
        ------------------------------------------------------------------------------
        const         -3.2002      0.257    -12.458      0.000      -3.708      -2.693
        x1             0.7529      0.044     17.296      0.000       0.667       0.839
        ==============================================================================
        Omnibus:                        3.538   Durbin-Watson:                   1.279
        Prob(Omnibus):                  0.171   Jarque-Bera (JB):                3.589
        Skew:                           0.357   Prob(JB):                        0.166
        Kurtosis:                       2.744   Cond. No.                         43.4
        ==============================================================================

Variable dependiente: Variable dependiente es aquella que va a depender de otras variables. En este análisis de regresión, Y es nuestra variable dependiente porque queremos analizar el efecto de X en Y.

Modelo: El método de los Mínimos Cuadrados Ordinarios (OLS) es el modelo más utilizado debido a su eficiencia. Este modelo da la mejor aproximación de la verdadera línea de regresión de la población. El principio de MCO es minimizar el cuadrado de los errores ( ∑e i 2 ).

Número de observaciones: El número de observaciones es el tamaño de nuestra muestra, es decir, N = 150.

Grado de libertad (gl) de los residuos: 

El grado de libertad es el número de observaciones independientes a partir de las cuales se calcula la suma de los cuadrados.

Residuales Df = 150 – (1+1) = 148

El grado de libertad (Df) se calcula como,      

 Grados de libertad,   D . f = norte – k

Donde, N = tamaño de la muestra (nº de observaciones) y   K = número de variables + 1

Df del modelo: 

Df del modelo = K – 1 = 2 – 1 = 1 ,

Donde, K = número de variables + 1

                   

Término constante: Los términos constantes son la intersección de la línea de regresión. Desde la línea de regresión (eq…1) el intercepto es -3.002. En la regresión, omitimos algunas variables independientes que no tienen mucho impacto en la variable dependiente, el intercepto indica el valor promedio de estas variables omitidas y el ruido presente en el modelo.

Término de coeficiente: El término de coeficiente indica el cambio en Y para una unidad de cambio en X   , es decir, si X aumenta en 1 unidad, entonces Y aumenta en 0,7529. Si está familiarizado con los derivados, puede relacionarlos como la tasa de cambio de Y con respecto a X.

Error estándar de los parámetros: El error estándar también se denomina desviación estándar. El error estándar muestra la variabilidad de muestreo de estos parámetros. El error estándar se calcula como – 
 

Error estándar del término de intersección (b1): 

s e\left(b_{1}\right)=\sqrt{\left(\frac{\sum x_{i}^{2}}{n \sum\left(x_{i}-\bar{x}\right)^{2}}\right) \sigma^{2}}

Error estándar del término del coeficiente (b2): 

s e\left(b_{2}\right)=\sqrt{\frac{\sigma^{2}}{\sum\left(x_{i}-\bar{x}\right)}}

Aquí, σ 2 es el error estándar de regresión (SER). Y σ 2 es igual a RSS (Residual Sum Of Square, es decir, ∑e i 2 ).

  

t – estadística: 

En teoría, asumimos que el término de error sigue la distribución normal y debido a esto los parámetros b 1  b 2 también tienen distribuciones normales con la varianza calculada en la sección anterior.

 Eso es , 

  • segundo 1  ∼ N( segundo 1 , σ b1 2 )
  • segundo 2   N( segundo 2 , σ b2 2 )

Aquí B 1 y B son verdaderas medias de b1 y b2.

t – las estadísticas se calculan asumiendo la siguiente hipótesis – 

  • H : B = 0 (la variable X no tiene influencia en Y)
  • H : B ≠ 0 (X tiene un impacto significativo en Y)

Cálculos para estadísticas t:          

                     t = ( segundo 1 – segundo 1 ) / se (segundo 1 )

 De la tabla de resumen, b 1 = -3.2002 y se(b 1 ) = 0.257, Entonces,

                   t = (-3,2002 – 0) / 0,257 = -12,458

Similarmente, b 2 = 0.7529 , se(b 2 ) = 0.044

                   t = (0,7529 – 0) / 0,044 = 17,296

p – valores: 

En teoría, leemos que el valor p es la probabilidad de obtener las estadísticas t al menos tan contradictorias con H como se calcula asumiendo que la hipótesis nula es verdadera. En la tabla de resumen, podemos ver que el valor P para ambos parámetros es igual a 0. Esto no es exactamente 0, pero dado que tenemos estadísticas muy grandes (-12,458 y 17,296), el valor P será aproximadamente 0.

Si conoce los niveles de significación, puede ver que podemos rechazar la hipótesis nula en casi todos los niveles de significación.

Intervalos de confianza:

Existen muchos enfoques para probar la hipótesis, incluido el enfoque del valor p mencionado anteriormente. El enfoque del intervalo de confianza es uno de ellos. 5% es el nivel de significación estándar (∝) en el que se realizan los IC. 

IC para B 1 es

Como ∝ = 5 %, b 1 = -3.2002, se(b 1 )=0.257 , de la tabla t , t 0.025,148 = 1.655,

Después de poner valores, el IC para B 1 es de aprox. Lo mismo se puede hacer para b 2 también.

Al calcular los valores de p, rechazamos la hipótesis nula, también podemos ver lo mismo en IC. Dado que 0 no se encuentra en ninguno de los intervalos, rechazaremos la hipótesis nula. 

 R – valor al cuadrado: 

R 2 es el coeficiente de determinación que nos dice que tanta variación porcentual de la variable independiente puede ser explicada por la variable independiente. Aquí, el 66,9 % de variación en Y puede explicarse por X. El valor máximo posible de R 2   puede ser 1, lo que significa que cuanto mayor sea el valor de R , mejor será la regresión.

F – estadística: 

La prueba F dice la bondad de ajuste de una regresión. La prueba es similar a la prueba t u otras pruebas que hacemos para la hipótesis. La estadística F se calcula de la siguiente manera:                    

F=\frac{R^{2} /(k-1)}{\left(1-R^{2}\right) /(n-k)}

Insertando los valores de R 2 , n y k, F = (0.669/1) / (0.331/148) = 229.12.

Puede calcular la probabilidad de F >229.1 para 1 y 148 df, que llega a aprox. 0. A partir de esto, nuevamente rechazamos la hipótesis nula establecida anteriormente. 

Los términos restantes no se utilizan con frecuencia. Términos como Skewness y Kurtosis hablan sobre la distribución de datos. La asimetría y la curtosis para la distribución normal son 0 y 3 respectivamente. La prueba de Jarque-Bera se utiliza para comprobar si un error tiene una distribución normal o no.  

               

      

Publicación traducida automáticamente

Artículo escrito por rsundery y traducido por Barcelona Geeks. The original can be accessed here. Licence: CCBY-SA

Deja una respuesta

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *