Estoy volviendo a analizar los datos de un colega. Los datos y el código R están aquí .
Es un diseño 2x2x2x2x3 completamente dentro de Ss. Una de las variables predictoras cue
, es una variable de dos niveles que cuando se contrae a un puntaje de diferencia refleja un valor pertinente a la teoría. Anteriormente colapsó cue
a un puntaje de diferencia dentro de cada sujeto y condición, luego calculó un ANOVA, produciendo un MSE que luego podría usar para comparaciones planificadas del puntaje de diferencia media de cada condición contra cero. Tendrás que confiar en que ella no estaba pescando y que tenía una buena base teórica para hacer las 24 pruebas.
Pensé que vería si había alguna diferencia cuando, en cambio, usara modelos de efectos mixtos para representar los datos. Como se muestra en el código, tomé dos enfoques:
Método 1: modele los datos como un diseño 2x2x2x2x3, obtenga muestras a posteriori de este modelo, calcule la cue
puntuación de diferencia para cada condición dentro de cada muestra, calcule el intervalo de predicción del 95% para la puntuación de diferencia de referencia dentro de cada condición.
Método 2: colapsar cue
a una puntuación de diferencia dentro de cada sujeto y condición, modelar los datos como un diseño 2x2x2x3, obtener muestras a posteriori de este modelo, calcular el intervalo de predicción del 95% para la puntuación de diferencia de referencia dentro de cada condición.
Parece que el método 1 produce intervalos de predicción más amplios que el método 2, con la consecuencia de que si uno usa la superposición con cero como criterio de "significancia", solo el 25% de los puntajes son "significativos" en el método 1, mientras que el 75% de los puntajes son son "significativos" bajo el método 2. Notablemente, los patrones de significancia obtenidos por el método 2 son más parecidos a los resultados originales basados en ANOVA que los patrones obtenidos por el método 1.
¿Alguna idea de lo que está pasando aquí?