Sesgo de estimadores de máxima verosimilitud para regresión logística


10

Me gustaría entender un par de hechos sobre estimadores de máxima verosimilitud (MLE) para regresiones logísticas.

  1. ¿Es cierto que, en general, el MLE para la regresión logística está sesgado? Yo diría que sí". Sé, por ejemplo, que la dimensión de la muestra está relacionada con el sesgo asintótico de los MLE.

    ¿Conoces algunos ejemplos elementales de este fenómeno?

  2. Si el MLE está sesgado, ¿es cierto que la matriz de covarianza de los MLE es la inversa del hessiano de la función de máxima verosimilitud?

    editar : he encontrado esta fórmula con bastante frecuencia y sin ninguna prueba; me parece una elección bastante arbitraria.

Respuestas:


15

TΛ Λ ( u ) = [ 1 + exp { - u } ] - 1

Pr(Yyo=1Tyo=1)=Λ(α+βTyo)
ΛΛ(tu)=[1+Exp{-tu}]-1

En forma de logit tenemos

En(Pr(Yyo=1Tyo=1)1-Pr(Yyo=1Tyo=1))=α+βTyo

Tienes una muestra de talla . Denotar el número de observaciones donde y aquellos en los que , y . Considere las siguientes probabilidades condicionales estimadas:n 1 T i = 1 n 0 T i = 0 n 1 + n 0 = nnortenorte1Tyo=1norte0 0Tyo=0 0norte1+norte0 0=norte

Pr^(Y=1T=1)PAG^1El |1=1norte1Tyo=1yyo

Pr^(Y=1T=0 0)PAG^1El |0 0=1norte0 0Tyo=0 0yyo

Entonces, este modelo muy básico proporciona soluciones de forma cerrada para el estimador de ML:

α^=En(PAG^1El |0 01-PAG^1El |0 0),β^=En(PAG^1El |11-PAG^1El |1)-En(PAG^1El |0 01-PAG^1El |0 0)

PARCIALIDAD

Aunque y son estimadores insesgados de las probabilidades correspondientes, los MLE están sesgados, ya que la función logarítmica no lineal se interpone en el camino: imagine lo que sucede con los modelos más complicados , con un mayor grado de no linealidad.PAG^1El |1PAG^1El |0 0

Pero asintóticamente, el sesgo desaparece ya que las estimaciones de probabilidad son consistentes. Insertando directamente el operador dentro del valor esperado y el logaritmo, tenemos lim

limnortemi[α^]=mi[En(limnortePAG^1El |0 01-PAG^1El |0 0)]=mi[En(PAG1El |0 01-PAG1El |0 0)]=α

y del mismo modo para . β

MATRIZ DE VARIANZA-COVARIANZA DE MLE
En el caso simple anterior que proporciona expresiones de forma cerrada para el estimador, uno podría, al menos en principio, continuar y derivar su distribución exacta de muestra finita y luego calcular su matriz exacta de varianza-covarianza de muestra finita . Pero en general, el MLE no tiene una solución de forma cerrada. Luego recurrimos a una estimación consistente de la matriz de varianza-covarianza asintótica, que es (lo negativo de) el inverso del hessiano de la función de log-verosimilitud de la muestra, evaluada en el MLE. Y aquí no hay ninguna "elección arbitraria", pero resulta de la teoría asintótica y de las propiedades asintóticas del MLE (consistencia y normalidad asintótica), eso nos dice que, para , θ0 0=(α,β)

norte(θ^-θ0 0)renorte(0 0,-(mi[H])-1)

donde es el hessiano. Aproximadamente y para muestras finitas (grandes), esto nos lleva aH

Var(θ^)-1norte(mi[H])-1-1norte(1norteH^)-1=-H^-1
Al usar nuestro sitio, usted reconoce que ha leído y comprende nuestra Política de Cookies y Política de Privacidad.
Licensed under cc by-sa 3.0 with attribution required.