Tamaño de muestra bajo: LR vs F - prueba


8

Algunos de ustedes podrían haber leído este bonito artículo:

O'Hara RB, Kotze DJ (2010) No log-transforma los datos de recuento. Methods in Ecology and Evolution 1: 118–122. Klick .

Actualmente estoy comparando modelos binomiales negativos con modelos gaussianos en datos transformados. A diferencia de O'Hara RB, Kotze DJ (2010), estoy analizando el caso especial de tamaños de muestra bajos y en un contexto de prueba de hipótesis.

A utilizó simulaciones para investigar las diferencias entre ambos.

Simulaciones de error tipo I

Todos los cálculos se han realizado en R.

Simulé datos de un diseño factorial con un grupo de control ( μC ) y 5 grupos de tratamiento ( μ1-5 5 ). Las abundancias se obtuvieron de distribuciones binomiales negativas con un parámetro de dispersión fijo (θ = 3.91). Las abundancias fueron iguales en todos los tratamientos.

Para las simulaciones, varié el tamaño de la muestra (3, 6, 9, 12) y las abundancias (2, 4, 8, ..., 1024). Se generaron y analizaron 100 conjuntos de datos utilizando un GLM binomial negativo ( MASS:::glm.nb()), un GLM quasipoisson ( glm(..., family = 'quasipoisson') y un GLG + gaussiano transformado logarítmicamente ( lm(...)).

Comparé los modelos con el modelo nulo utilizando una prueba de probabilidad de razón ( lmtest:::lrtest()) (GLM gaussiana y GLM bin negativa), así como pruebas F (GLM gaussiana y GLM cuasipoisson) ( anova(...test = 'F')).

Si es necesario, puedo proporcionar el código R, pero vea también aquí una pregunta mía relacionada.

Resultados ingrese la descripción de la imagen aquí

Para tamaños de muestra pequeños, las pruebas LR (verde - neg. Bin .; rojo - gaussiano) conducen a un mayor error de tipo I. La prueba F (azul - gaussiana, púrpura - cuasi-poisson) parece funcionar incluso para muestras pequeñas.

Las pruebas LR dan errores de Tipo I similares (aumentados) tanto para LM como para GLM.

Curiosamente, el cuasi-poisson funciona bastante bien (pero también con una prueba F).

Como se esperaba, si el tamaño de la muestra aumenta, la prueba LR también funciona bien (asintóticamente correcta).

Para el pequeño tamaño de la muestra ha habido algunos problemas de convergencia (no se muestran) para el GLM, sin embargo, solo en bajas abundancias, por lo que se puede descuidar la fuente de error.

Preguntas

  1. Tenga en cuenta que los datos se generaron a partir de un neg.bin. modelo, por lo que habría esperado que el GLM funcione mejor. Sin embargo, en este caso, un modelo lineal sobre abundancias transformadas funciona mejor. Lo mismo para cuasi-poisson (prueba F). Sospecho que esto se debe a que la prueba F funciona mejor con muestras pequeñas. ¿Es esto correcto y por qué?

  2. La prueba LR no funciona bien debido a los síntomas asintóticos. ¿Son las posibilidades de mejora?

  3. ¿Existen otras pruebas para GLM que puedan funcionar mejor? ¿Cómo puedo mejorar las pruebas de GLM?

  4. ¿Qué tipo de modelos para datos de conteo con tamaños de muestra pequeños se deben usar?

Editar:

Curiosamente, la prueba LR para un GLM binomial funciona bastante bien: ingrese la descripción de la imagen aquí

Aquí extraigo datos de una distribución binomial, configuración similar a la anterior.

Rojo: modelo gaussiano (prueba LR + transformación de arcosina), Ocre: GLM binomial (prueba LR), verde: modelo gaussiano (prueba F + transformación de arcosina), azul: GLM cuasibinonial (prueba F), púrpura: no- paramétrico.

Aquí solo el modelo gaussiano (LR-Test + transformación arcsin) muestra un aumento del error Tipo I, mientras que el GLM (LR-Test) funciona bastante bien en términos de error Tipo I. Entonces parece haber también una diferencia entre las distribuciones (¿o tal vez glm vs. glm.nb?).

Respuestas:


5

La prueba de razón de verosimilitud que está utilizando utiliza una distribución de chi-cuadrado para aproximar la distribución nula de verosimilitudes. Esta aproximación funciona mejor con tamaños de muestra grandes, por lo que su imprecisión con un tamaño de muestra pequeño tiene algún sentido.

Veo algunas opciones para mejorar el error tipo I en su situación:

  • Hay versiones corregidas de la prueba de razón de probabilidad, como la corrección de Bartlett. No sé mucho sobre estos (más allá del hecho de que existen), pero he oído que Ben Bolker sabe más.
  • Puede estimar la distribución nula para la razón de probabilidad mediante bootstrapping. Si la razón de probabilidad observada cae fuera del 95% medio de la distribución de arranque, entonces es estadísticamente significativa.

Finalmente, la distribución de Poisson tiene un parámetro libre menos que el binomio negativo, y podría valer la pena intentarlo cuando el tamaño de la muestra es muy pequeño.


Gracias david Para conteos sobredispersos, el cuasi-poisson funciona bastante bien (Prueba F). Sin embargo, los datos se han generado con una relación cuadrática de media-varianza y cuasi-poisson tiene una relación mv lineal. Gracias por la pista con la corrección de Bartlett (Ben lo mencionó en el chat). Comprobaré tu idea de arranque, suena razonable ...
EDi
Al usar nuestro sitio, usted reconoce que ha leído y comprende nuestra Política de Cookies y Política de Privacidad.
Licensed under cc by-sa 3.0 with attribution required.