Creo que es la diferencia de qué pruebas se calculan. car::Anova
utiliza las pruebas de Wald, mientras que drop1
ajusta el modelo eliminando términos individuales. John Fox me escribió una vez, que las pruebas de Wald y las pruebas de modelos reajustados usando pruebas de razón de probabilidad (es decir, la estrategia de drop1
) están de acuerdo para modelos lineales pero no necesariamente no lineales. Lamentablemente este correo estaba fuera de la lista y no contenía ninguna referencia. Pero sé que su libro tiene un capítulo sobre las pruebas de Wald, que podría contener la información deseada.
La ayuda a car::Anova
dice:
Las pruebas de tipo II se calculan de acuerdo con el principio de marginalidad, probando cada término después de todos los demás, excepto ignorando a los parientes de orden superior del término; Las llamadas pruebas de tipo III violan la marginalidad, probando cada término en el modelo después de todos los demás. Esta definición de pruebas de tipo II corresponde a las pruebas producidas por SAS para los modelos de análisis de varianza, donde todos los predictores son factores, pero no de manera más general (es decir, cuando hay predictores cuantitativos). Tenga mucho cuidado al formular el modelo para las pruebas de tipo III, o las hipótesis probadas no tendrán sentido.
Lamentablemente, no puedo responder su segunda o tercera pregunta, ya que también me gustaría saberlo.
Actualizar comentario de respuesta :
No hay pruebas de Wald, LR y F para modelos mixtos generalizados. Anova
solo permite "chisq"
y "F"
prueba modelos mixtos (es decir, "mer"
objetos devueltos por lmer
). La sección de uso dice:
## S3 method for class 'mer'
Anova(mod, type=c("II","III", 2, 3),
test.statistic=c("chisq", "F"), vcov.=vcov(mod), singular.ok, ...)
Pero como las pruebas F para mer
objetos se calculan por pbkrtest
, lo que para mi conocimiento solo funciona para modelos lineales mixtos, los Anova
GLMM siempre deberían regresar chisq
(por lo tanto, no ve diferencia).
Actualización sobre la pregunta:
Mi respuesta anterior solo trató de responder a su pregunta principal, la diferencia entre Anova()
y drop1()
. Pero ahora entiendo que desea probar si ciertos efectos fijos son significativos o no. Las preguntas frecuentes de modelado mixto R-sig dicen lo siguiente con respecto a esto:
Pruebas de parámetros individuales.
De peor a mejor:
- Pruebas Z de Wald
- Para LMM anidados y balanceados donde se puede calcular df: pruebas t de Wald
- Prueba de razón de probabilidad, ya sea configurando el modelo para que el parámetro pueda aislarse / descartarse (a través de anova o drop1), o mediante el cálculo de perfiles de probabilidad
- MCMC o intervalos de confianza de bootstrap paramétricos
Pruebas de efectos (es decir, prueba de que varios parámetros son simultáneamente cero)
De peor a mejor:
- Pruebas de chi-cuadrado de Wald (por ejemplo, coche :: Anova)
- Prueba de razón de probabilidad (a través de anova o drop1)
- Para LMM anidados y balanceados donde se puede calcular df: pruebas F condicionales
- Para LMM: pruebas F condicionales con corrección df (por ejemplo, Kenward-Roger en el paquete pbkrtest)
- MCMC o comparaciones de arranque paramétricas o no paramétricas (el arranque no paramétrico debe implementarse cuidadosamente para tener en cuenta los factores de agrupación)
(énfasis añadido)
Esto indica que su enfoque de uso car::Anova()
para GLMM generalmente no se recomienda, pero se debe usar un enfoque que use MCMC o bootstrap. No sé si pvals.fnc
del languageR
paquete funciona con GLMM, pero vale la pena intentarlo.