Normalmente trato con datos en los que se miden múltiples individuos cada uno de ellos en 2 o más condiciones. Recientemente he estado jugando con el modelado de efectos mixtos para evaluar la evidencia de diferencias entre condiciones, modeladoindividual
como un efecto aleatorio. Para visualizar la incertidumbre con respecto a las predicciones de dicho modelado, he estado usando bootstrapping, donde en cada iteración del bootstrap, tanto los individuos como las observaciones dentro de las condiciones dentro de los individuos se muestrean con reemplazo y se calcula un nuevo modelo de efectos mixtos a partir del cual las predicciones son obtenidas. Esto funciona bien para los datos que suponen un error gaussiano, pero cuando los datos son binomiales, el arranque puede tardar mucho tiempo porque cada iteración debe calcular un modelo de efectos mixtos binomiales relativamente intensivos en cómputo.
Pensé que podría usar los residuales del modelo original y luego usar estos residuales en lugar de los datos sin procesar en el bootstrapping, lo que me permitiría calcular un modelo de efecto mixto gaussiano en cada iteración del bootstrap. Agregar las predicciones originales del modelo binomial de los datos sin procesar a las predicciones bootstrap de los residuos produce un IC del 95% para las predicciones originales.
Sin embargo, recientemente codifiqué una evaluación simple de este enfoque, sin modelar la diferencia entre dos condiciones y calculando la proporción de veces que un intervalo de confianza del 95% no pudo incluir cero, y descubrí que el procedimiento de arranque basado en residuos anterior produce un fuerte efecto anti intervalos conservadores (excluyen cero más del 5% del tiempo). Además, codifiqué (el mismo enlace que el anterior) una evaluación similar de este enfoque aplicado a los datos que originalmente eran gaussianos, y obtuve ICs conservadores similares (aunque no tan extremos). ¿Alguna idea de por qué podría ser esto?