Regresión: ¿por qué probar la normalidad de los residuos generales, en lugar de los residuales condicionados a ?


10

Entiendo que en la regresión lineal se supone que los errores se distribuyen normalmente, condicional al valor predicho de y. Luego miramos los residuos como una especie de proxy para los errores.

Se recomienda a menudo para generar una salida como esta: ingrese la descripción de la imagen aquí. Sin embargo, no entiendo cuál es el punto de obtener el residuo para cada punto de datos y combinarlo en una sola gráfica.

Entiendo que es poco probable que tengamos suficientes puntos de datos para evaluar adecuadamente si tenemos residuos normales en cada valor predicho de y.

Sin embargo, ¿no es la cuestión de si tenemos residuos normales en general uno separado, y uno que no se relaciona claramente con el supuesto del modelo de residuos normales en cada valor predicho de y? ¿No podríamos tener residuos normales en cada valor pronosticado de y, al tiempo que tenemos residuos generales que son bastante no normales?


1
Puede haber algún mérito al concepto - quizá bootstrapping podría ayudar aquí (para conseguir la replicación de los residuos)
probabilityislogic

2
¿Podría dar una referencia para que en la regresión lineal se suponga que los errores se distribuyen normalmente, condicional al valor predicho de y (si tiene alguno)?
Richard Hardy

No tenía en mente ninguna fuente en particular cuando publiqué la pregunta, pero ¿qué tal "el supuesto de modelado es que la variable de respuesta normalmente se distribuye alrededor de la línea de regresión (que es una estimación de la media condicional), con una varianza constante" desde aquí . Agradecería más comentarios si me equivoco sobre esto.
user1205901 - Reinstale a Monica

Respuestas:


17

¿No podríamos tener residuos normales en cada valor pronosticado de y, al tiempo que tenemos residuos generales que son bastante no normales?

No, al menos, no bajo el supuesto estándar de que la varianza de los errores es constante.

Puede pensar en la distribución de los residuos globales como una mezcla de distribuciones normales (una para cada nivel de ). Por supuesto, todas estas distribuciones normales tienen la misma media (0) y la misma varianza. Por lo tanto, la distribución de esta mezcla de normales es simplemente una distribución normal.y^

Entonces de esto podemos formar un pequeño silogismo. Si las distribuciones individuales dados los valores del predictor X son normales (y sus variaciones son iguales), entonces la distribución de los residuos globales es normal. Entonces, si observamos que la distribución de los residuos globales aparentemente no es normal, esto implica que las distribuciones dadas X no son normales con la misma varianza. Lo cual es una violación de los supuestos estándar.


1
p(ϵ)=p(ϵ|x)p(x)dxp(ϵ|x)p(ϵ)p(x)y^=β0+β1Xy^X

¿Es apropiado decir que los marginales no normales nos permiten "rechazar" los condicionales no normales, pero que los marginales normales no nos permiten "aceptar" los condicionales normales?
shadowtalker

66
p(ϵ|x)=p(ϵ)p(ϵ)N(0,σ2)N(0,σ2)
Bill

1
ε | XN(0,σ2)εN(0,σ2)

@ssdecontrol De la respuesta: " Si las distribuciones individuales dados los valores del predictor X son normales (y sus variaciones son iguales), entonces la distribución de los residuos globales es normal " . ¿No estoy seguro de cuánto más claro podría ser?
Jake Westfall, el

3

Se ha dichoque los mínimos cuadrados ordinarios en y (OLS) son óptimos en la clase de estimadores lineales insesgados cuando los errores son homoscedasticos y no están correlacionados en serie. Con respecto a los residuos homoscedastic, la varianza de los residuos es la misma independientemente de dónde mediríamos la variación de la magnitud residual en el eje x. Por ejemplo, suponga que el error de nuestra medición aumenta proporcionalmente para aumentar los valores de y. Entonces podríamos tomar el logaritmo de esos valores de y antes de realizar la regresión. Si se hace eso, la calidad del ajuste aumenta en comparación con el ajuste de un modelo de error proporcional sin tomar un logaritmo. En general, para obtener homocedasticidad, podríamos tener que tomar el recíproco de los datos del eje y o x, el logaritmo (s), la raíz cuadrada o cuadrada, o aplicar una exponencial. Una alternativa a esto es usar una función de ponderación,(ymodel)2y2(ymodel)2

Dicho esto, con frecuencia ocurre que hacer que los residuos sean más homoscedasticos los hace más normalmente distribuidos, pero con frecuencia, la propiedad homoscedastic es más importante. Esto último dependería de por qué estamos realizando la regresión. Por ejemplo, si la raíz cuadrada de los datos se distribuye más normalmente que tomar el logaritmo, pero el error es de tipo proporcional, entonces la prueba t del logaritmo será útil para detectar una diferencia entre poblaciones o mediciones, pero para encontrar el esperado debemos usar la raíz cuadrada de los datos, porque solo la raíz cuadrada de los datos es una distribución simétrica para la cual se espera que la media, la moda y la mediana sean iguales.

Además, con frecuencia ocurre que no queremos una respuesta que nos proporcione un mínimo predictor de error de los valores del eje y, y esas regresiones pueden estar muy sesgadas. Por ejemplo, a veces podríamos querer retroceder por el mínimo error en x. O a veces deseamos descubrir la relación entre y y x, que no es un problema de regresión de rutina. Entonces podríamos usar Theil, es decir, pendiente media, regresión, como un compromiso más simple entre x e y menos regresión de error. O si sabemos cuál es la varianza de las medidas repetidas para x e y, podríamos usar la regresión de Deming. La regresión es mejor cuando tenemos valores atípicos, que hacen cosas horribles a los resultados de la regresión ordinaria. Y, para la regresión de la pendiente media, importa poco si los residuos se distribuyen normalmente o no.

Por cierto, la normalidad de los residuos no necesariamente nos da ninguna información útil de regresión lineal.Por ejemplo, supongamos que estamos haciendo mediciones repetidas de dos mediciones independientes. Como tenemos independencia, la correlación esperada es cero, y la pendiente de la línea de regresión puede ser cualquier número aleatorio sin pendiente útil. Repetimos las mediciones para establecer una estimación de la ubicación, es decir, la media (o mediana (distribución de Cauchy o Beta con un pico) o, más generalmente, el valor esperado de una población), y a partir de eso para calcular una varianza en xy una varianza en y, que luego puede usarse para la regresión de Deming, o lo que sea. Además, la suposición de que la superposición es, por lo tanto, normal en la misma media si la población original es normal no nos lleva a una regresión lineal útil. Para llevar esto más lejos, supongamos que luego varío los parámetros iniciales y establezco una nueva medición con diferentes ubicaciones de generación de funciones de valor X e y de Monte Carlo y cotejo esos datos con la primera ejecución. Entonces, los residuos son normales en la dirección y en cada valor x, pero, en la dirección x, el histograma tendrá dos picos, lo que no está de acuerdo con los supuestos de OLS, y nuestra pendiente e intersección estarán sesgadas porque uno no tiene datos de intervalos iguales en el eje x. Sin embargo, la regresión de los datos recopilados ahora tiene una pendiente e intercepción definidas, mientras que antes no. Además, debido a que solo estamos probando realmente dos puntos con muestreo repetido, no podemos probar la linealidad. De hecho, el coeficiente de correlación no será una medición confiable por la misma razón,

Por el contrario, a veces se supone además que los errores tienen una distribución normal condicional en los regresores. Esta suposición no es necesaria para la validez del método OLS, aunque ciertas propiedades adicionales de muestras finitas se pueden establecer en caso de que lo haga (especialmente en el área de prueba de hipótesis), ver aquí. ¿Cuándo entonces está OLS en tu regresión correcta? Si, por ejemplo, tomamos medidas de los precios de las acciones al cierre todos los días exactamente a la misma hora, entonces no hay variación en el eje t (pensar en el eje x). Sin embargo, el tiempo de la última operación (liquidación) se distribuiría aleatoriamente, y la regresión para descubrir la RELACIÓN entre las variables debería incorporar ambas variaciones. En esa circunstancia, OLS en y solo estimaría el menor error en el valor de y, lo que sería una mala elección para extrapolar el precio de negociación para un acuerdo, ya que el tiempo mismo de ese acuerdo también debe predecirse. Además, el error normalmente distribuido puede ser inferior a un modelo de precios gamma .

¿Que importa eso? Bueno, algunas acciones cotizan varias veces por minuto y otras no cotizan todos los días o incluso todas las semanas, y puede hacer una gran diferencia numérica. Entonces depende de qué información deseamos. Si queremos preguntar cómo se comportará el mercado mañana al cierre, esa es una pregunta de "tipo" OLS, pero, la respuesta puede ser residual no lineal, no normal y requerir una función de ajuste con coeficientes de forma que coincidan con el ajuste de derivadas (y / o momentos más altos) para establecer la curvatura correcta para la extrapolación . (Se pueden ajustar derivados así como una función, por ejemplo, utilizando splines cúbicos, por lo que el concepto de acuerdo con derivados no debería sorprendernos, aunque rara vez se explora). Si queremos saber si ganaremos dinero o no. en un stock en particular, entonces no usamos OLS, ya que el problema es bivariante.


1
¿Diría que la normalidad es suficiente pero no necesaria para una inferencia válida? ¿Por qué no solo probar la heterocedasticidad específicamente? Seguramente una distribución marginal de los residuos de cola pesada (por ejemplo) no significa necesariamente que el supuesto de normalidad condicional sea incorrecto, ¿verdad? Sin embargo, los residuos de cola gruesa fallarían por diseño en una prueba de normalidad para los residuos.
shadowtalker

Para la prueba t, la homocedasticidad es a menudo más importante. Los valores atípicos hacen que 1.359 SD >> IQR reduzcan la potencia de la prueba t. Luego intente la reparameterización o la prueba de Wilcoxon, que funciona en la mayoría de las circunstancias (tal vez no cuando r> 0.9999) independientemente del tipo de distribución o el grado de heterocedasticidad. De hecho, si uno está probando varios parámetros similares, Wilcoxon o t-testing funcionarán mejor para clasificar las probabilidades bajas y altas, por lo que los datos en sí mismos a menudo declaran lo que es más útil.
Carl

Haga que 1.349 SD >> IQR. 1.349 es el número de DE que tiene una distribución normal para un rango intercuartil (RIC). Algunas distribuciones, como la distribución de Cauchy, o una t de Student con dos grados de libertad no tienen SD, los valores atípicos eliminan eso, pero sí tienen IQR, y luego uno usa Wilcoxon u otra prueba no paramétrica como prueba de ubicación.
Carl

Después de pensarlo más detenidamente (ver el nuevo material en respuesta), es normal tener normalidad de los residuos del eje y, pero insuficiente.
Carl

Las distribuciones de cola pesada hacen cosas horribles a las ecuaciones de regresión. Por ejemplo, si se examinan todas las pistas posibles en un conjunto de datos, uno típicamente para crear una distribución de Cauchy de pistas, conocido como Student's- t con un grado de libertad. Para la distribución de Cauchy, no hay momentos. Es decir, se puede calcular una media y una desviación estándar y cuantos más datos se tengan, más errática será la media y la desviación estándar. El valor esperado de una distribución de Cauchy es la mediana y para calcular una media tendría que censurar los valores extremos.
Carl
Al usar nuestro sitio, usted reconoce que ha leído y comprende nuestra Política de Cookies y Política de Privacidad.
Licensed under cc by-sa 3.0 with attribution required.