Suponga que tengo un conjunto de observaciones univariadas independientes, distribuidas idénticamente dos hipótesis sobre cómo se generó :
: se extrae de una distribución gaussiana única con media y varianza desconocidas.
: se extrae de una mezcla de dos gaussianos con media, varianza y coeficiente de mezcla desconocidos.
Si entiendo correctamente, estos son modelos anidados ya que el modelo que representa se puede describir en términos de si restringe los parámetros de los dos gaussianos para que sean idénticos o el coeficiente de mezcla sea cero para uno de los dos gaussianos.
Por lo tanto, parece que debería poder usar el algoritmo EM para estimar los parámetros de y luego usar el Teorema de Wilks para determinar si la probabilidad de los datos bajo es significativamente mayor que la de . Hay un pequeño salto de fe en el supuesto de que el algoritmo EM convergerá a la máxima probabilidad aquí, pero es uno que estoy dispuesto a hacer.
Intenté esto en una simulación de Monte Carlo, suponiendo que tiene 3 grados más de libertad que (la media y la varianza para el segundo parámetro gaussiano y de mezcla). Cuando simulé datos de , obtuve una distribución de valor P que era sustancialmente no uniforme y enriquecida para valores P pequeños. (Si EM no convergiera con la probabilidad máxima real, se esperaría exactamente lo contrario). ¿Qué tiene de malo mi aplicación del teorema de Wilks que está creando este sesgo?