Estoy leyendo el documento de teoría de Doug Bates sobre el paquete lme4 de R para comprender mejor la esencia de los modelos mixtos, y encontré un resultado intrigante que me gustaría entender mejor, sobre el uso de la máxima verosimilitud restringida (REML) para estimar la varianza .
En la sección 3.3 sobre el criterio REML, afirma que el uso de REML en la estimación de la varianza está estrechamente relacionado con el uso de una corrección de grados de libertad al estimar la varianza de las desviaciones residuales en un modelo lineal ajustado. En particular, "aunque no suele derivarse de esta manera", los grados de corrección de libertad pueden derivarse estimando la varianza mediante la optimización de un "criterio REML" (ecuación (28)). El criterio REML es esencialmente solo la probabilidad, pero los parámetros de ajuste lineal se han eliminado al marginar (en lugar de establecerlos iguales a la estimación de ajuste, lo que daría una varianza de muestra sesgada).
Hice los cálculos y verifiqué el resultado reclamado para un modelo lineal simple con solo efectos fijos. Con lo que estoy luchando es con la interpretación. ¿Existe alguna perspectiva desde la cual es natural derivar una estimación de varianza al optimizar una probabilidad de que los parámetros de ajuste se hayan marginado? Se siente algo bayesiano, como si estuviera pensando en la probabilidad como posterior y marginando los parámetros de ajuste como si fueran variables aleatorias.
¿O la justificación es principalmente matemática: funciona en el caso lineal pero también es generalizable?