He estado revisando esta descripción general de las fórmulas lm / lmer R de @conjugateprior y la siguiente entrada me ha confundido:
Ahora suponga que A es aleatorio, pero B es fijo y B está anidado dentro de A.
aov(Y ~ B + Error(A/B), data=d)
A continuación, lmer(Y ~ B + (1 | A:B), data=d)
se proporciona una fórmula de modelo mixto análogo para el mismo caso.
No entiendo muy bien lo que significa. En un experimento donde los sujetos se dividen en varios grupos, tendríamos un factor aleatorio (sujetos) anidado dentro de un factor fijo (grupos). Pero, ¿cómo puede anidarse un factor fijo dentro de un factor aleatorio? ¿Algo arreglado anidado dentro de sujetos aleatorios? ¿Es posible? Si no es posible, ¿tienen sentido estas fórmulas R?
Esta visión general se menciona que se basa parcialmente en la páginas de la personalidad con el proyecto de hacer ANOVA en I se basó en este tutorial sobre medidas repetidas en R . Allí se da el siguiente ejemplo para las medidas repetidas ANOVA:
aov(Recall ~ Valence + Error(Subject/Valence), data.ex3)
Aquí los sujetos se presentan con palabras de valencia variable (factor con tres niveles) y se mide su tiempo de recuerdo. Cada tema se presenta con palabras de los tres niveles de valencia. No veo nada anidado en este diseño (parece cruzado, según la gran respuesta aquí ), por lo que ingenuamente pensaría que Error(Subject)
o (1 | Subject)
debería ser un término aleatorio apropiado en este caso. El Subject/Valence
"anidamiento" (?) Es confuso.
Tenga en cuenta que entiendo que Valence
es un factor dentro del tema . Pero creo que no es un factor "anidado" dentro de los sujetos (porque todos los sujetos experimentan los tres niveles de Valence
).
Actualizar. Estoy explorando preguntas en CV sobre la codificación de medidas repetidas ANOVA en R.
Aquí se usa lo siguiente para medidas fijas dentro del sujeto / medidas repetidas A y aleatorio
subject
:summary(aov(Y ~ A + Error(subject/A), data = d)) anova(lme(Y ~ A, random = ~1|subject, data = d))
Aquí para dos efectos fijos dentro del sujeto / medidas repetidas A y B:
summary(aov(Y ~ A*B + Error(subject/(A*B)), data=d)) lmer(Y ~ A*B + (1|subject) + (1|A:subject) + (1|B:subject), data=d)
Aquí para tres efectos dentro del sujeto A, B y C:
summary(aov(Y ~ A*B*C + Error(subject/(A*B*C)), data=d)) lmer(Y ~ A*B*C + (1|subject) + (0+A|subject) + (0+B|subject) + (0+C|subject) + (0+A:B|subject) + (0+A:C|subject) + (0+B:C|subject), data = d)
Mis preguntas:
- ¿Por qué
Error(subject/A)
y noError(subject)
? - ¿Es
(1|subject)
o(1|subject)+(1|A:subject)
o simplemente(1|A:subject)
? - ¿Es
(1|subject) + (1|A:subject)
o(1|subject) + (0+A|subject)
, y por qué no simplemente(A|subject)
?
Hasta ahora he visto algunos hilos que afirman que algunas de estas cosas son equivalentes (por ejemplo, la primera: una afirmación de que son iguales pero una afirmación opuesta sobre SO ; la tercera: una especie de afirmación de que son lo mismo ). ¿Son ellos?
subject/condition
, esto es conceptualmente dudoso porque parece sugerir que las condiciones están anidadas en los sujetos, cuando claramente es lo contrario, pero el modelo que realmente se ajusta es subject + subject:condition
, que es un modelo perfectamente válido con efectos de sujeto aleatorio y sujeto aleatorio X pendientes.
lm
y aov
fórmulas? Si quiero tener una fuente autorizada sobre qué aov
hace exactamente (¿es un contenedor lm
?) Y cómo funcionan los Error()
términos, ¿dónde debo buscar?
aov
es una envoltura lm
en el sentido que lm
se usa para el ajuste de mínimos cuadrados, pero aov
realiza un trabajo adicional (en particular, traduce el Error
término para lm
). La fuente autorizada es el código fuente o posiblemente la referencia dada en help("aov")
: Chambers et al (1992). Pero no tengo acceso a esa referencia, así que buscaría en el código fuente.