Esta es una pregunta bastante antigua con algunas respuestas muy buenas, sin embargo, creo que puede beneficiarse de una nueva respuesta para abordar una perspectiva más pragmática.
¿Cuándo no se debe permitir que un efecto fijo varíe entre niveles de un efecto aleatorio?
No abordaré los problemas ya descritos en las otras respuestas, sino que me referiré al ahora famoso, aunque preferiría decir "infame" artículo de Barr et al (2013) a menudo simplemente referido como "Keep it maximal"
Barr, DJ, Levy, R., Scheepers, C. y Tily, HJ, 2013. Estructura de efectos aleatorios para la prueba de hipótesis confirmatoria: mantenerlo al máximo. Revista de memoria y lenguaje, 68 (3), pp.255-278.
En este artículo, los autores argumentan que todos los efectos fijos deberían poder variar según los niveles de los factores de agrupación (intercepciones aleatorias). Su argumento es bastante convincente: básicamente, al no permitirles variar, impone restricciones al modelo. Esto está bien descrito en las otras respuestas. Sin embargo, existen problemas potencialmente graves con este enfoque, que describe Bates el al (2015):
Bates, D., Kliegl, R., Vasishth, S. y Baayen, H., 2015. Modelos mixtos parsimoniales. preimpresión arXiv arXiv: 1506.04967
Vale la pena señalar aquí que Bates es el autor principal del lme4
paquete para ajustar modelos mixtos en R, que es probablemente el paquete más utilizado para tales modelos. Bates et al señalan que en muchas aplicaciones del mundo real, los datos simplemente no admitirán una estructura máxima de efectos aleatorios, a menudo porque no hay un número suficiente de observaciones en cada grupo para las variables relevantes. Esto puede manifestarse en modelos que no convergen, o son singulares en los efectos aleatorios. La gran cantidad de preguntas en este sitio sobre tales modelos lo atestigua. También señalan que Barr et al utilizaron una simulación relativamente simple, con efectos aleatorios de "buen comportamiento" como base para su trabajo. En cambio, Bates et al sugieren el siguiente enfoque:
Propusimos (1) usar PCA para determinar la dimensionalidad de la matriz de varianza-covarianza de la estructura de efectos aleatorios, (2) para restringir inicialmente los parámetros de correlación a cero, especialmente cuando un intento inicial de ajustar un modelo máximo no converge, y (3) eliminar componentes de varianza no significativa y sus parámetros de correlación asociados del modelo
En el mismo documento, también señalan:
Es importante destacar que la falta de convergencia no se debe a defectos del algoritmo de estimación, sino que es una consecuencia directa de intentar ajustar un modelo que es demasiado complejo para que los datos lo respalden adecuadamente.
Y:
Los modelos máximos no son necesarios para proteger contra las conclusiones anti-conservadoras. Esta protección está totalmente provista por modelos integrales que se guían por expectativas realistas sobre la complejidad que los datos pueden soportar. En estadística, como en otras partes de la ciencia, la parsimonia es una virtud, no un vicio.
Bates y otros (2015)
Desde una perspectiva más aplicada, una consideración adicional que debe hacerse es si el proceso de generación de datos, la teoría biológica / física / química que subyace a los datos, debe guiar al analista hacia la especificación de la estructura de efectos aleatorios.