¿Por qué Anova () y drop1 () proporcionaron diferentes respuestas para GLMM?


10

Tengo un GLMM de la forma:

lmer(present? ~ factor1 + factor2 + continuous + factor1*continuous + 
                (1 | factor3), family=binomial)

Cuando lo uso drop1(model, test="Chi"), obtengo resultados diferentes a los que uso Anova(model, type="III")del paquete del automóvil o summary(model). Estos dos últimos dan las mismas respuestas.

Usando un montón de datos fabricados, descubrí que estos dos métodos normalmente no difieren. Dan la misma respuesta para modelos lineales balanceados, modelos lineales no balanceados (donde n desiguales en diferentes grupos), y para modelos lineales generalizados balanceados, pero no para modelos mixtos lineales generalizados balanceados. Por lo tanto, parece que solo en los casos en que se incluyen factores aleatorios se manifiesta esta discordia.

  • ¿Por qué hay una discrepancia entre estos dos métodos?
  • ¿Cuándo se debe usar GLMM Anova()o se drop1()debe usar?
  • La diferencia entre estos dos es bastante leve, al menos para mis datos. ¿Importa siquiera cuál se usa?

Respuestas:


7

Creo que es la diferencia de qué pruebas se calculan. car::Anovautiliza las pruebas de Wald, mientras que drop1ajusta el modelo eliminando términos individuales. John Fox me escribió una vez, que las pruebas de Wald y las pruebas de modelos reajustados usando pruebas de razón de probabilidad (es decir, la estrategia de drop1) están de acuerdo para modelos lineales pero no necesariamente no lineales. Lamentablemente este correo estaba fuera de la lista y no contenía ninguna referencia. Pero sé que su libro tiene un capítulo sobre las pruebas de Wald, que podría contener la información deseada.

La ayuda a car::Anovadice:

Las pruebas de tipo II se calculan de acuerdo con el principio de marginalidad, probando cada término después de todos los demás, excepto ignorando a los parientes de orden superior del término; Las llamadas pruebas de tipo III violan la marginalidad, probando cada término en el modelo después de todos los demás. Esta definición de pruebas de tipo II corresponde a las pruebas producidas por SAS para los modelos de análisis de varianza, donde todos los predictores son factores, pero no de manera más general (es decir, cuando hay predictores cuantitativos). Tenga mucho cuidado al formular el modelo para las pruebas de tipo III, o las hipótesis probadas no tendrán sentido.

Lamentablemente, no puedo responder su segunda o tercera pregunta, ya que también me gustaría saberlo.


Actualizar comentario de respuesta :

No hay pruebas de Wald, LR y F para modelos mixtos generalizados. Anovasolo permite "chisq"y "F"prueba modelos mixtos (es decir, "mer"objetos devueltos por lmer). La sección de uso dice:

## S3 method for class 'mer'
Anova(mod, type=c("II","III", 2, 3), 
    test.statistic=c("chisq", "F"), vcov.=vcov(mod), singular.ok, ...)

Pero como las pruebas F para merobjetos se calculan por pbkrtest, lo que para mi conocimiento solo funciona para modelos lineales mixtos, los AnovaGLMM siempre deberían regresar chisq(por lo tanto, no ve diferencia).

Actualización sobre la pregunta:

Mi respuesta anterior solo trató de responder a su pregunta principal, la diferencia entre Anova()y drop1(). Pero ahora entiendo que desea probar si ciertos efectos fijos son significativos o no. Las preguntas frecuentes de modelado mixto R-sig dicen lo siguiente con respecto a esto:

Pruebas de parámetros individuales.

De peor a mejor:

  • Pruebas Z de Wald
  • Para LMM anidados y balanceados donde se puede calcular df: pruebas t de Wald
  • Prueba de razón de probabilidad, ya sea configurando el modelo para que el parámetro pueda aislarse / descartarse (a través de anova o drop1), o mediante el cálculo de perfiles de probabilidad
  • MCMC o intervalos de confianza de bootstrap paramétricos

Pruebas de efectos (es decir, prueba de que varios parámetros son simultáneamente cero)

De peor a mejor:

  • Pruebas de chi-cuadrado de Wald (por ejemplo, coche :: Anova)
  • Prueba de razón de probabilidad (a través de anova o drop1)
  • Para LMM anidados y balanceados donde se puede calcular df: pruebas F condicionales
  • Para LMM: pruebas F condicionales con corrección df (por ejemplo, Kenward-Roger en el paquete pbkrtest)
  • MCMC o comparaciones de arranque paramétricas o no paramétricas (el arranque no paramétrico debe implementarse cuidadosamente para tener en cuenta los factores de agrupación)

(énfasis añadido)

Esto indica que su enfoque de uso car::Anova()para GLMM generalmente no se recomienda, pero se debe usar un enfoque que use MCMC o bootstrap. No sé si pvals.fncdel languageRpaquete funciona con GLMM, pero vale la pena intentarlo.


1
Gracias Henrik Anova () puede calcular tres pruebas diferentes: Wald, LR y F.He intentado las tres, pero no hay diferencia, lo que me parece extraño. Tengo la sensación de que la función se negará a usar pruebas de que decida no son apropiados para los datos ...
tim.farkas
Al usar nuestro sitio, usted reconoce que ha leído y comprende nuestra Política de Cookies y Política de Privacidad.
Licensed under cc by-sa 3.0 with attribution required.