Estoy analizando un conjunto de datos utilizando un modelo de efectos mixtos con un efecto fijo (condición) y dos efectos aleatorios (participante debido al diseño del sujeto y al par). El modelo se ha generado con el lme4
paquete: exp.model<-lmer(outcome~condition+(1|participant)+(1|pair),data=exp)
.
A continuación, realicé una prueba de razón de probabilidad de este modelo contra el modelo sin el efecto fijo (condición) y tengo una diferencia significativa. Hay 3 condiciones en mi conjunto de datos, por lo que quiero hacer una comparación múltiple, pero no estoy seguro de qué método usar . Encontré varias preguntas similares en CrossValidated y otros foros, pero todavía estoy bastante confundido.
Por lo que he visto, la gente ha sugerido usar
1. El lsmeans
paquete, lsmeans(exp.model,pairwise~condition)
que me da el siguiente resultado:
condition lsmean SE df lower.CL upper.CL
Condition1 0.6538060 0.03272705 47.98 0.5880030 0.7196089
Condition2 0.7027413 0.03272705 47.98 0.6369384 0.7685443
Condition3 0.7580522 0.03272705 47.98 0.6922493 0.8238552
Confidence level used: 0.95
$contrasts
contrast estimate SE df t.ratio p.value
Condition1 - Condition2 -0.04893538 0.03813262 62.07 -1.283 0.4099
Condition1 - Condition3 -0.10424628 0.03813262 62.07 -2.734 0.0219
Condition2 - Condition3 -0.05531090 0.03813262 62.07 -1.450 0.3217
P value adjustment: tukey method for comparing a family of 3 estimates
2. El multcomp
paquete de dos maneras diferentes - con ayuda de mcp
glht(exp.model,mcp(condition="Tukey"))
lo que resulta en
Simultaneous Tests for General Linear Hypotheses
Multiple Comparisons of Means: Tukey Contrasts
Fit: lmer(formula = outcome ~ condition + (1 | participant) + (1 | pair),
data = exp, REML = FALSE)
Linear Hypotheses:
Estimate Std. Error z value Pr(>|z|)
Condition2 - Condition1 == 0 0.04894 0.03749 1.305 0.392
Condition3 - Condition1 == 0 0.10425 0.03749 2.781 0.015 *
Condition3 - Condition2 == 0 0.05531 0.03749 1.475 0.303
---
Signif. codes: 0 ‘***’ 0.001 ‘**’ 0.01 ‘*’ 0.05 ‘.’ 0.1 ‘ ’ 1
(Adjusted p values reported -- single-step method)
y el uso lsm
glht(exp.model,lsm(pairwise~condition))
resultante en
Note: df set to 62
Simultaneous Tests for General Linear Hypotheses
Fit: lmer(formula = outcome ~ condition + (1 | participant) + (1 | pair),
data = exp, REML = FALSE)
Linear Hypotheses:
Estimate Std. Error t value Pr(>|t|)
Condition1 - Condition2 == 0 -0.04894 0.03749 -1.305 0.3977
Condition1 - Condition3 == 0 -0.10425 0.03749 -2.781 0.0195 *
Condition2 - Condition3 == 0 -0.05531 0.03749 -1.475 0.3098
---
Signif. codes: 0 ‘***’ 0.001 ‘**’ 0.01 ‘*’ 0.05 ‘.’ 0.1 ‘ ’ 1
(Adjusted p values reported -- single-step method)
Como puede ver, los métodos dan resultados diferentes. Esta es la primera vez que trabajo con R y estadísticas, por lo que algo podría estar mal, pero no sabría dónde. Mis preguntas son:
¿Cuáles son las diferencias entre los métodos presentados? Leí en una respuesta a preguntas relacionadas que se trata de los grados de libertad ( lsmeans
vs. glht
).
¿Existen algunas reglas o recomendaciones sobre cuándo usar cuál, es decir, el método 1 es bueno para este tipo de conjunto / modelo de datos, etc.? ¿Qué resultado debo informar? Sin saberlo, probablemente solo iría y reportaría el valor p más alto que pude jugar a lo seguro, pero sería bueno tener una mejor razón. Gracias