¿Cómo se comparan normalmente los modelos de efectos mixtos (lineales) entre sí? Sé que se pueden usar pruebas de razón de probabilidad, pero esto no funciona si un modelo no es un 'subconjunto' del otro ¿correcto?
¿La estimación de los modelos df es siempre sencilla? ¿Número de efectos fijos + número de componentes de varianza estimados? ¿Ignoramos las estimaciones de efectos aleatorios?
¿Qué pasa con la validación? Mi primer pensamiento es la validación cruzada, pero los pliegues aleatorios podrían no funcionar dada la estructura de los datos. ¿Es apropiada una metodología de 'dejar un tema / grupo fuera'? ¿Qué hay de dejar una observación?
Mallows Cp puede interpretarse como una estimación del error de predicción de los modelos. La selección del modelo a través de AIC intenta minimizar el error de predicción (por lo que Cp y AIC deberían elegir el mismo modelo si los errores son gaussianos, creo). ¿Significa esto que AIC o Cp pueden usarse para elegir un modelo de efectos mixtos lineales 'óptimos' de una colección de algunos modelos no anidados en términos de error de predicción? (siempre que se ajusten a los mismos datos) ¿Es aún más probable que BIC elija el modelo "verdadero" entre los candidatos?
También tengo la impresión de que al comparar modelos de efectos mixtos a través de AIC o BIC solo contamos los efectos fijos como 'parámetros' en el cálculo, no los modelos reales df.
¿Existe alguna buena literatura sobre estos temas? ¿Vale la pena investigar cAIC o mAIC? ¿Tienen una aplicación específica fuera de AIC?