Yudi Pawitan escribe en su libro In All Likelihood que la segunda derivada del log-verosimilitud evaluada en las estimaciones de máxima verosimilitud (MLE) es la información de Fisher observada (ver también este documento , página 2). Esto es exactamente lo que la mayoría de los algoritmos de optimización como optim
en R
retorno: el grupo de acción evaluada en el MLE. Cuando lo negativola probabilidad logarítmica se minimiza, se devuelve el Hessian negativo. Como señala correctamente, los errores estándar estimados del MLE son las raíces cuadradas de los elementos diagonales del inverso de la matriz de información de Fisher observada. En otras palabras: las raíces cuadradas de los elementos diagonales de la inversa de la arpillera (o la arpillera negativa) son los errores estándar estimados.
Resumen
- El Hessian negativo evaluado en el MLE es el mismo que la matriz de información de Fisher observada evaluada en el MLE.
- Con respecto a su pregunta principal: No, no es correcto que la información de Fisher observada se pueda encontrar invirtiendo el (negativo) Hessian.
- Con respecto a su segunda pregunta: el inverso de la arpillera (negativa) es un estimador de la matriz de covarianza asintótica. Por lo tanto, las raíces cuadradas de los elementos diagonales de la matriz de covarianza son estimadores de los errores estándar.
- Creo que el segundo documento al que se vinculó se equivocó.
Formalmente
Deje que sea una función de log-verosimilitud. La matriz de información de Fisher es una matriz simétrica que contiene las entradas:
La matriz de información de Fisher observada es simplemente , la matriz de información evaluada en las estimaciones de máxima verosimilitud (MLE). El hessiano se define como:
l(θ) I(θ)(p×p)
I(θ)=−∂2∂θi∂θjl(θ), 1≤i,j≤p
I(θ^ML)H(θ)=∂2∂θi∂θjl(θ), 1≤i,j≤p
No es más que la matriz de segundas derivadas de la función de probabilidad con respecto a los parámetros. De ello se deduce que si minimiza la probabilidad de registro
negativa , la arpillera devuelta es el equivalente de la matriz de información de Fisher observada, mientras que en el caso de que maximice la probabilidad de registro, la arpillera
negativa es la matriz de información observada.
Además, el inverso de la matriz de información de Fisher es un estimador de la matriz de covarianza asintótica:
Los errores estándar son entonces las raíces cuadradas de los elementos diagonales de la matriz de covarianza. Para la distribución asintótica de una estimación de máxima verosimilitud, podemos escribir
donde denota el valor del parámetro verdadero. Por lo tanto, el error estándar estimado de las estimaciones de máxima verosimilitud viene dado por:
Var(θ^ML)=[I(θ^ML)]−1
θ^ML∼aN(θ0,[I(θ^ML)]−1)
θ0SE(θ^ML)=1I(θ^ML)−−−−−−√