Una propiedad fundamental de la regresión de efectos aleatorios es que las estimaciones de interceptación aleatoria se "reducen" hacia la media general de la respuesta en función de la varianza relativa de cada estimación.
Este es también el caso de los modelos lineales mixtos generalizados (GLMM) como la regresión logística.
¿Cómo es esa contracción mejor que / diferente de la regresión logística de efectos fijos con una codificación en caliente de las variables ID y la contracción mediante la regularización L2?
En un modelo de efectos fijos, puedo controlar la cantidad de contracción cambiando mi penalización, , de la regularización de L2 mientras que en un modelo de efectos aleatorios no tengo control sobre la cantidad de contracción. ¿Sería correcto decir "usar el modelo de efectos aleatorios si el objetivo es inferencia pero usar el modelo de efectos fijos si el objetivo es predicción"?