En el famoso artículo de 1938 (" La distribución de la muestra grande de la razón de probabilidad para probar hipótesis compuestas ", Annals of Mathematical Statistics, 9: 60-62), Samuel Wilks derivó la distribución asintótica de (relación de probabilidad logarítmica ) para hipótesis anidadas, bajo el supuesto de que la hipótesis más grande se especifica correctamente. La distribución limitante es (chi-cuadrado) con grados de libertad, donde es el número de parámetros en la hipótesis más grandees el número de parámetros libres en la hipótesis anidada. Sin embargo, supuestamente se sabe que este resultado no se cumple cuando las hipótesis están mal especificadas (es decir, cuando la hipótesis más grande no es la verdadera distribución de los datos muestreados).
¿Alguien puede explicar por qué? Me parece que la prueba de Wilks aún debería funcionar con modificaciones menores. Se basa en la normalidad asintótica de la estimación de máxima verosimilitud (MLE), que todavía se mantiene con modelos mal especificados. La única diferencia es la matriz de covarianza de la normal multivariante limitante: para modelos correctamente especificados, podemos aproximar la matriz de covarianza con la matriz de información inversa de Fisher , con una especificación errónea, podemos usar la estimación sandwich de la matriz de covarianza ( ). Este último se reduce al inverso de la matriz de información de Fisher cuando el modelo se especifica correctamente (ya que) AFAICT, a la prueba de Wilks no le importa de dónde proviene la estimación de la matriz de covarianza, siempre que tengamos una matriz de covarianza asintótica invertible de la normalidad multivariada para los MLE ( en el documento de Wilks).