¿Por qué usamos residuos para probar los supuestos sobre errores en la regresión?


10

Supongamos que tenemos un modelo Yi=β0+β1Xi1+β2Xi2++βkXik+ϵi .

La regresión tiene una serie de supuestos, como que los errores ϵi deberían distribuirse normalmente con media cero y varianza constante. Me han enseñado para comprobar estos supuestos utilizando una parcela QQ normal a prueba de normalidad de los residuales ei=YiY^i y unos residuos vs. parcela equipada para comprobar que los residuos varían en torno a cero con varianza constante.

Sin embargo, estas pruebas son todas en los residuos, no los errores.

Por lo que entiendo, los errores se definen como la desviación de cada observación de su valor medio "verdadero". Entonces, podemos escribir ϵi=YiE[Yi] . Estos errores no pueden ser observados por nosotros. * *

Mi pregunta es esta: ¿qué tan buen trabajo hacen los residuos al imitar los errores?

Si los supuestos parecen estar satisfechos con los residuos, ¿significa esto que también están satisfechos con los errores? ¿Hay otras formas (mejores) de probar los supuestos, como ajustar el modelo a un conjunto de datos de prueba y obtener los residuos a partir de ahí?


* Además, ¿esto no requiere que el modelo se especifique correctamente ? Es decir, que la respuesta realmente tiene una relación con los predictores X1,X2, etc. en la forma especificada por el modelo.

Xk+1 to XpE[Yi]=β0+β1Xi1+β2Xi2++βkXik

¿Cómo verificamos si el modelo es el correcto?

Respuestas:


9

Los residuos son nuestras estimaciones de los términos de error.

La respuesta corta a esta pregunta es relativamente simple: los supuestos en un modelo de regresión son supuestos sobre el comportamiento de los términos de error, y los residuales son nuestras estimaciones de los términos de error. Ipso facto , el examen del comportamiento de los residuos observados nos dice si las suposiciones sobre los términos de error son o no plausibles.

Para comprender esta línea general de razonamiento con más detalle, es útil examinar en detalle el comportamiento de los residuos en un modelo de regresión estándar. Bajo una regresión lineal múltiple estándar con términos de error normal homoskedastic independientes, se conoce la distribución del vector residual, lo que le permite probar los supuestos de distribución subyacentes en el modelo de regresión. La idea básica es calcular la distribución del vector residual bajo los supuestos de regresión, y luego verificar si los valores residuales coinciden plausiblemente con esta distribución teórica. Las desviaciones de la distribución residual teórica muestran que la distribución supuesta subyacente de los términos de error es incorrecta en algún aspecto.

ϵiIID N(0,σ2)

r=(Ih)ϵN(0,σ2(Ih)),

donde es la matriz del sombrero para la regresión. El vector residual imita el vector de error, pero la matriz de varianza tiene el término multiplicativo adicional . Para probar los supuestos de regresión, usamos los residuales studentizados, que tienen una distribución marginal T:h=x(xTx)1xTIh

siriσ^Ext(1li)T(dfRes1).

(Esta fórmula es para los residuos externamente estudiados, donde el estimador de varianza excluye la variable en consideración. Los valores son los valores de apalancamiento, que son los valores diagonales en la matriz del sombrero . Los residuos estudiados no son independientes, pero si es grande, están cerca de ser independientes. Esto significa que la distribución marginal es una distribución simple conocida pero la distribución conjunta es complicada.) Ahora, si el límite existe, entonces se puede demostrar que los estimadores de coeficientes son estimadores consistentes de los coeficientes de regresión verdaderos, y los residuales son estimadores consistentes de Términos de verdadero error.li=hi,inlimn(xTx)/n=Δ

Esencialmente, esto significa que usted prueba los supuestos de distribución subyacentes para los términos de error al comparar los residuos estudiados con la distribución T. Cada una de las propiedades subyacentes de la distribución de errores (linealidad, homocedasticidad, errores no correlacionados, normalidad) puede probarse utilizando las propiedades análogas de la distribución de los residuos estudiados. Si el modelo se especifica correctamente, entonces para grandes los residuos deben estar cerca de los términos de error verdadero y tienen una forma de distribución similar.n

La omisión de una variable explicativa del modelo de regresión conduce a un sesgo de variable omitido en los estimadores de coeficientes y esto afecta la distribución residual. Tanto la media como la varianza del vector residual se ven afectadas por la variable omitida. Si los términos omitidos en la regresión son , el vector residual se convierte en . Si los vectores de datos en la matriz omitida son vectores normales IID e independientes de los términos de error, entoncesZδr=(Ih)(Zδ+ϵ)ZZδ+ϵN(μ1,σ2I) para que la distribución residual se convierta en:

r=(Ih)(Zδ+ϵ)N(μ(Ih)1,σ2(Ih)).

Si ya hay un término de intercepción en el modelo (es decir, si el vector unitario está en la matriz de diseño) entonces1(Ih)1=0, lo que significa que se conserva la forma distributiva estándar de los residuos. Si no hay un término de intercepción en el modelo, la variable omitida puede dar una media distinta de cero para los residuos. Alternativamente, si la variable omitida no es IID normal, puede conducir a otras desviaciones de la distribución residual estándar. En este último caso, es poco probable que las pruebas residuales detecten algo resultante de la presencia de una variable omitida; Por lo general, no es posible determinar si las desviaciones de la distribución residual teórica se producen como resultado de una variable omitida, o simplemente debido a una relación mal planteada con las variables incluidas (y podría decirse que son lo mismo en cualquier caso).


1
Gracias por la respuesta integral. ¿Puedo preguntar de dónde sacaste ? Me parece quer=(Ih)ϵr=YY^=(Ih)Y
mai

1
Como tiene para que . hx=x(Ih)x=0r=(Ih)Y=(Ih)(xβ+ϵ)=(Ih)ϵ
Ben - Restablece a Mónica el

-4

Por lo general, los términos residuales y errores significan lo mismo. Si su modelo no tiene predictores, E (Y) es de hecho la media de Y. Con los predictores (como en su modelo), E (Y) es el valor de Y pronosticado de cada X. Por lo tanto, los residuos son la diferencia entre cada uno observado y predijo Y.


3
"Por lo general, los términos residuales y errores significan lo mismo". No creo que esto sea cierto: por lo que entiendo, los residuos miden la diferencia entre el valor observado y el valor predicho, mientras que los errores miden la diferencia entre el valor observado y el valor medio verdadero.
mai

1
Estrictamente hablando, los errores y los residuos no son sinónimos. Las primeras son variables aleatorias, las últimas son realizaciones.
Richard Hardy
Al usar nuestro sitio, usted reconoce que ha leído y comprende nuestra Política de Cookies y Política de Privacidad.
Licensed under cc by-sa 3.0 with attribution required.