Tengo un experimento que intentaré resumir aquí. Imagina que arrojo tres piedras blancas frente a ti y te pido que juzgues su posición. Grabo una variedad de propiedades de las piedras y su respuesta. Hago esto en varias materias. Genero dos modelos. Una es que la piedra más cercana a ti predice tu respuesta, y la otra es que el centro geométrico de las piedras predice tu respuesta. Entonces, usar lmer en RI podría escribir.
mNear <- lmer(resp ~ nearest + (1|subject), REML = FALSE)
mCenter <- lmer(resp ~ center + (1|subject), REML = FALSE)
ACTUALIZACIÓN Y CAMBIO: versión más directa que incorpora varios comentarios útiles
podria intentar
anova(mNear, mCenter)
Lo cual es incorrecto, por supuesto, porque no están anidados y realmente no puedo compararlos de esa manera. Esperaba que anova.mer arrojara un error, pero no lo hizo. Pero la posible anidación que podría probar aquí no es natural y todavía me deja con declaraciones algo menos analíticas. Cuando los modelos se anidan naturalmente (por ejemplo, cuadrático en lineal), la prueba es solo de una manera. Pero en este caso, ¿qué significaría tener resultados asimétricos?
Por ejemplo, podría hacer un modelo tres:
mBoth <- lmer(resp ~ center + nearest + (1|subject), REML = FALSE)
Entonces puedo anova.
anova(mCenter, mBoth)
anova(mNearest, mBoth)
Es justo hacerlo y ahora encuentro que el centro se suma al efecto más cercano (el segundo comando) pero BIC en realidad aumenta cuando se agrega el más cercano al centro (corrección para la parsimonia más baja). Esto confirma lo que se sospechaba.
¿Pero es esto suficiente? ¿Y es justo cuando el centro y el más cercano están tan altamente correlacionados?
¿Existe una mejor manera de comparar analíticamente los modelos cuando no se trata de sumar y restar variables explicativas (grados de libertad)?