Es OLS asintóticamente eficiente bajo heterocedasticidad


9

Sé que OLS es imparcial pero no eficiente bajo heteroscedasticidad en una configuración de regresión lineal.

En Wikipedia

http://en.wikipedia.org/wiki/Minimum_mean_square_error

El estimador MMSE es asintóticamente imparcial y converge en distribución a la distribución normal: , donde I (x) es la información de Fisher de x. Por lo tanto, el estimador MMSE es asintóticamente eficiente.n(x^x)dN(0,I1(x))

Se afirma que MMSE es asintóticamente eficiente. Estoy un poco confundido aquí.

¿Significa esto que OLS no es eficiente en muestras finitas, sino eficiente asintóticamente bajo heteroscedasticidad?

Crítica de las respuestas actuales: hasta ahora, las respuestas propuestas no abordan la distribución limitante.

Gracias por adelantado


Ese es un artículo de Wikipedia bastante largo. Dado que, además, están sujetos a cambios, ¿le importaría citar el pasaje que causa confusión?
hejseb 01 de

1
La información de Fisher se deriva de la función de probabilidad. Por lo tanto, implica implícitamente que la probabilidad se especificó correctamente. es decir, la afirmación a la que se refiere supone que, si hay alguna heterocedasticidad, la regresión se ponderó de tal manera que la heterocedasticidad se especificó correctamente. Ver en.wikipedia.org/wiki/Least_squares#Weighted_least_squares . En la práctica, a menudo no conocemos la forma de la heterocedasticidad, por lo que a veces aceptamos la ineficiencia en lugar de arriesgarnos a sesgar la regresión al no especificar esquemas de ponderación.
Zachary Blumenfeld

@ZacharyBlumenfeld No hubo suposición sobre la distribución de x en el artículo. ¿Cómo terminamos con la información de Fisher?
Cagdas Ozgenc

1
Ver en.wikipedia.org/wiki/Fisher_information. El artículo implica una distribución en y cuando toma expectativas en la sección de definición. Tenga en cuenta que la homocedasticidad nunca se supuso allí. En el contexto de OLS, la homocedacticidad asumió , la matriz de identidad. La heterocedacticidad permite , cualquier diagonal Positiva semi-definida. El uso de daría como resultado una información de Fisher diferente de lo que sería el uso de . e eN ( 0 , σ I ) I eN ( 0 , D ) D D σ IxeeN(0,σI)IeN(0,D)DDσI
Zachary Blumenfeld

¿Dónde puedo ver una prueba de este hecho de que "MMSE converge en distribución a la distribución normal?"
Hajir

Respuestas:


3

El artículo nunca asumió homoskadasticity en la definición. Para ponerlo en el contexto del artículo, la homoscedasticidad sería decir Donde es la matriz de identidad y es un número escalar positivo La heteroscadasticidad permite I n × n σ

E{(x^x)(x^x)T}=σI
In×nσ

E{(x^x)(x^x)T}=D

Cualquier diaganol positivo definido. El artículo define la matriz de covarianza de la manera más general posible, como el segundo momento centrado de alguna distribución multivaria implícita. debemos conocer la distribución multivariada de para obtener una estimación asintóticamente eficiente y consistente de . Esto vendrá de una función de probabilidad (que es un componente obligatorio de la parte posterior). Por ejemplo, suponga (es decir, . Entonces la función de probabilidad implícita es Donde es el pdf normal multivariado.e x e ~ N ( 0 , Σ ) E { ( x - x ) ( x - x ) T } = Σ log [ L ] = log [ φ ( x - x , Σ ) ] φDex^eN(0,Σ)E{(x^x)(x^x)T}=Σ

log[L]=log[ϕ(x^x,Σ)]
ϕ

La matriz de información del pescador se puede escribir como vea en.wikipedia.org/wiki/Fisher_information para más información. Es a partir de aquí que podemos derivar Lo anterior está usando una función de pérdida cuadrática pero no supone Homocedasticidad.

I(x)=E[(xlog[L])2|x]
n(x^x)dN(0,I1(x))

En el contexto de OLS, donde retrocedemos en asumimos La probabilidad implícita es que puede reescribirse convenientemente como el pdf normal univariante. La información del pescador es entonces yx

E{y|x}=xβ
log[L]=log[ϕ(yxβ,σI)]
log[L]=i=1nlog[φ(yxβ,σ)]
φ
I(β)=[σ(xx)1]1

Si no se cumple la homocedasticidad, entonces la información de Fisher como se indica es erróneamente especificada (pero la función de expectativa condicional sigue siendo correcta), por lo que las estimaciones de serán consistentes pero ineficientes. Podríamos reescribir la probabilidad de tener en cuenta la heteroskacticidad y la regresión es eficiente, es decir, podemos escribir Esto es equivalente a ciertas formas de mínimos cuadrados generalizados , como mínimos cuadrados ponderados. Sin embargo, esto lo harálog [ L ] = log [ ϕ ( y - x β , D ) ] β 1β

log[L]=log[ϕ(yxβ,D)]
cambiar la matriz de información de Fisher. En la práctica, a menudo no conocemos la forma de la heterocedasticidad, por lo que a veces preferimos aceptar la ineficiencia en lugar de sesgar la regresión por error al especificar esquemas de ponderación. En tales casos, la covarianza asintótica de no es como se especificó anteriormente.β 1nI1(β)

Gracias por todo el tiempo que pasaste. Sin embargo, creo que esa entrada wiki es una mierda total. MMSE no dará eficiencia, y en ninguna parte se especifica que las muestras se ponderan adecuadamente. Además, incluso si suponemos que las muestras están ponderadas, todavía no es un estimador eficiente a menos que la distribución sea gaussiana, que tampoco se especifica.
Cagdas Ozgenc

@CagdasOzgenc Estoy respetuosamente en desacuerdo. El artículo está redactado en una forma bayesiana general que puede incluir regresión, pero también muchos otros modelos (parece estar dirigido más hacia el filtro de Kalman). La probabilidad es el estimador más eficiente cuando se conoce, esta es una propiedad básica de probabilidad. Lo que dice se aplica estrictamente a un subconjunto de modelos de regresión (aunque entre los modelos más ampliamente aplicados) donde se asume la normalidad al derivar condiciones de primer orden.
Zachary Blumenfeld

1
Lo dijiste tú mismo. Lamentablemente, el artículo no trata sobre el estimador de probabilidad. Es el Estimador de mínimos cuadrados mínimos, que es eficiente cuando se cumplen ciertas condiciones.
Cagdas Ozgenc 01 de

Muy bien, estoy de acuerdo en no estar de acuerdo :) Quizás haya un conflicto con la definición de MMSE entre cómo se usa en la regresión más frecuente y cómo se aplica aquí en un entorno más bayesiano. Quizás deberían inventar un nuevo nombre para ello. Sin embargo, las probabilidades (o tal vez otras estimaciones no paramétricas) están implícitas cuando se toman expectativas independientes sobre cada residuo al cuadrado. especialmente en un entorno bayesiano (de lo contrario, ¿cómo lo estimaríamos?). Después de buscar en Google, encontré muchos resultados similares a los de Wikipedia. De todos modos, estoy de acuerdo en que se está abusando de la terminología.
Zachary Blumenfeld

2

No, OLS no es eficiente bajo heteroscedasticidad. La eficiencia de un estimador se obtiene si el estimador tiene la menor varianza entre otros estimadores posibles. Las declaraciones sobre la eficiencia en OLS se hacen independientemente de la distribución limitante de un estimador.

Al usar nuestro sitio, usted reconoce que ha leído y comprende nuestra Política de Cookies y Política de Privacidad.
Licensed under cc by-sa 3.0 with attribution required.