Este tema me parece bastante interesante y las respuestas actuales son, lamentablemente, incompletas o parcialmente engañosas, a pesar de la relevancia y la gran popularidad de esta pregunta.
Por definición del marco OLS clásica no debe haber ninguna relación entreyTŷ tu^ , ya que los residuos obtenidos son por construcción correlacionada a lasal derivar el estimador MCO. La propiedad de minimización de varianza bajo homoscedasticidad asegura que el error residual se distribuya aleatoriamente alrededor de los valores ajustados. Esto puede ser demostrado formalmente por: yŷ
= P σ 2 - P σ 2 = 0
Cov ( ŷ , u El | X) = Cov ( Py, MyEl | X) = Cov ( Py, ( Yo- P) yEl | X) = PCov ( y, y) ( I- P)′
= Pσ2- Pσ2= 0
Donde y son matrices idempotentes definidas como: y .P P = X ( X ′ X ) X ′ M = I - PMETROPAGSPAGS= X( X′X) X′METRO= Yo- P
Este resultado se basa en una estricta exogeneidad y homocedasticidad, y prácticamente se mantiene en muestras grandes. La intuición para su uncorrelatedness es la siguiente: Los valores ajustadoscondicionada a se centran alrededor de, que se cree como distribuidos independientemente y de forma idéntica. Sin embargo, cualquier desviación de la exogeneidad y homocedasticidad estricta suposición podría causar las variables explicativas a ser endógenas y estimular una correlación latente entrey. X U U yŷ Xu u ŷ
Ahora, la correlación entre los residuosy el "original" es una historia completamente diferente:yu y
Cov ( y, u El | X) = Cov ( yMETROyEl | X) = Cov ( y, ( 1 -P) y) = Cov ( y, y)(1−P)=σ2M
Al revisar la teoría, sabemos que esta matriz de covarianza es idéntica a la matriz de covarianza del residuo residual (prueba omitida). Tenemos:u^
Var(û )=σ2M=Cov(y,û |X)
Si nos gustaría calcular la covarianza (escalar) entre y según lo solicitado por el OP, obtenemos:Uyu^
⟹Covscalar(y,û |X)=Var(û |X)=(∑u2i)/N
(= al sumar las entradas diagonales de la matriz de covarianza y dividir por N)
La fórmula anterior indica un punto interesante. Si probamos la relación haciendo retroceder en los residuos (+ constante), el coeficiente de pendiente , que puede derivarse fácilmente cuando dividimos la expresión anterior por el .u ß u , y = 1 Var ( u | X )yu^βu^,y=1Var(û |X)
Por otro lado, la correlación es la covarianza estandarizada por las respectivas desviaciones estándar. Ahora, la matriz de varianza de los residuos es , mientras que la varianza de es . La correlación convierte así en:y σ 2 ICorr(y,u)σ2Myσ2ICorr(y,û )
Corr(y,û )=Var(û )Var(u^)Var(y)−−−−−−−−−−−√=Var(û )Var(y)−−−−−−√= Var(û )σ2−−−---√
Este es el resultado central que debería mantenerse en una regresión lineal. La intuición es que el expresa el error entre la varianza verdadera del término de error y un proxy para la varianza basada en residuos. Observe que la varianza de es igual a la varianza de más la varianza de los residuos . Por lo tanto, se puede reescribir más intuitivamente como: y y uCorr (y, u )yy^tu^
Corr (y, u ) = 11 + Var (y)^Var ( u )--------√
Hay dos fuerzas aquí en el trabajo. Si tenemos un gran ajuste de la línea de regresión, se espera que la correlación sea baja debido a . Por otro lado, es un poco difícil de estimar, ya que es incondicional y una línea en el espacio de parámetros. La comparación de las variaciones incondicionales y condicionales dentro de una relación puede no ser un indicador apropiado después de todo. Quizás, por eso rara vez se hace en la práctica.Var ( Y )Var ( u ) ≈ 0Var ( y^)
Un intento de la conclusión de la pregunta: La correlación entre yes positivo y se refiere a la relación de la varianza de los residuos y la varianza de la verdadera término de error, aproximada por la varianza incondicional en . Por lo tanto, es un poco un indicador engañoso.T yyu y
A pesar de este ejercicio nos puede dar alguna intuición sobre el funcionamiento y los supuestos teóricos inherentes de una regresión por mínimos cuadrados, que rara vez se evalúa la correlación entre y. Ciertamente, hay pruebas más establecidas para verificar las propiedades del término de error verdadero. En segundo lugar, tenga en cuenta que los residuos no son el término de error, y las pruebas de residuosque hacer predicciones de las características sobre el verdadero término de error son limitadas y su necesidad validez para ser manejados con sumo cuidado.u u uyu u tu
Por ejemplo, me gustaría señalar una declaración hecha por un póster anterior aquí. Se dice que,
"Si sus residuos están correlacionados con sus variables independientes, entonces su modelo es heteroscedastico ..."
Creo que eso puede no ser del todo válido en este contexto. Lo creas o no, pero los residuos MCOson por la construcción hechos para ser correlacionado con las variables independientes . Para ver esto, considere:x ku Xk
= X ′ y - X ′ X ( X ′ X )
X′tuyo= X′METROy= X′( Yo- P) y= X′y- X′PAGSy
= X′y- X′X( X′X) X′y= X′y- X′y= 0
⟹X′tuyo= 0⟹Cov ( X′, uyoEl | X) = 0⟹Cov ( xk i, uyoEl | Xki ) = 0
Sin embargo, es posible que haya escuchado afirmaciones de que una variable explicativa está correlacionada con el término de error . Tenga en cuenta que tales afirmaciones se basan en suposiciones sobre toda la población con un verdadero modelo de regresión subyacente, que no observamos de primera mano. En consecuencia, la comprobación de la correlación entre y inútil en un marco OLS lineal. Sin embargo, cuando probamos la heterocedasticidad , tenemos en cuenta aquí el segundo momento condicional, por ejemplo, regresamos los residuos al cuadrado en o una función deU X Xyu XX, como suele ser el caso con los estimadores de FGSL. Esto es diferente de evaluar la correlación simple. Espero que esto ayude a aclarar las cosas.