Intentaré responder a sus preguntas una por una:
¿Esa diferencia proviene del enfoque secuencial (en lugar de marginal) en lme4 en la contabilización de la variabilidad de los datos?
Correcto. Como puede ver, solo para la interacción los resultados son los mismos. La interacción se ingresa en último lugar en el modelo en ambos casos, por lo que los resultados para ese término son los mismos. Sin embargo, si ingresa "nivel" primero y luego "RT", los resultados de "RT" le indican si "RT" es significativo después de que "nivel" ya esté en el modelo (y viceversa). Estos resultados dependen del orden.
¿Qué significa una gran diferencia?
Suponga que ambas variables en sí mismas están fuertemente relacionadas con la variable de respuesta, pero también están fuertemente correlacionadas. En ese caso, puede que no haya mucha variabilidad en la variable de respuesta que la variable que se ingresa en el modelo deja en segundo lugar. Por lo tanto, tenderá a ver diferencias más dramáticas cuando las variables explicativas estén correlacionadas.
¿Significa que el modelo necesita más ajustes hasta que desaparezca la gran diferencia?
No estoy seguro de lo que quieres decir con "sintonización". El fenómeno que está observando no es un problema per se, aunque complica la interpretación de los resultados (ver más abajo).
Tal vez una forma de "ajuste" es esta. Si las variables explicativas están altamente correlacionadas, entonces esencialmente pueden estar midiendo lo mismo. En ese caso, uno puede "ajustar" el modelo eliminando una de las variables o combinándolas en una sola variable.
Mi segunda pregunta es que, si quiero saber qué variable entre las dos (RT y nivel) representa más variabilidad de datos, ¿cuál sería un enfoque razonable? ¿Basado en la magnitud relativa de Sum Sq (o Mean Sq) de las dos variables? ¿Algún método de prueba estadística para comparar la variabilidad entre variables explicativas?
Cuando las variables explicativas están correlacionadas, es bastante difícil determinar su importancia relativa. Este problema surge con bastante frecuencia en el contexto de regresión múltiple y se han escrito docenas de artículos sobre este tema y se han sugerido muchos métodos para lograr este objetivo. Ciertamente no hay consenso sobre la forma más adecuada y algunas personas incluso pueden sugerir que no hay una forma adecuada de hacerlo.
Las sumas de cuadrados no te ayudarán, porque no se basan en el mismo número de grados de libertad. Los cuadrados medios esencialmente son correctos para eso, pero si usa los cuadrados medios, entonces esto no es más que usar los valores F correspondientes (o valores p) para determinar la importancia relativa. Creo que la mayoría de la gente no consideraría eso una forma apropiada de determinar la importancia relativa.
Lamentablemente, no tengo una solución fácil. En cambio, puedo sugerirle un sitio web, del autor del relaimpo
paquete. No creo que el paquete lo ayude a ajustar modelos de efectos mixtos, pero hay muchas referencias a documentos sobre el problema que está tratando.
http://prof.beuth-hochschule.de/groemping/relaimpo/
También puede consultar el AICcmodavg
paquete:
http://cran.r-project.org/web/packages/AICcmodavg/index.html