¿Por qué los residuos de Pearson de una regresión binomial negativa son más pequeños que los de una regresión de Poisson?


9

Tengo estos datos:

set.seed(1)
predictor  <- rnorm(20)
set.seed(1)
counts <- c(sample(1:1000, 20))
df <- data.frame(counts, predictor)

Corrí una regresión de Poisson

poisson_counts <- glm(counts ~ predictor, data = df, family = "poisson")

Y una regresión binomial negativa:

require(MASS)
nb_counts <- glm.nb(counts ~ predictor, data = df)

Luego calculé las estadísticas de dispersión para la regresión de Poisson:

sum(residuals(poisson_counts, type="pearson")^2)/df.residual(poisson_counts)

# [1] 145.4905

Y la regresión binomial negativa:

sum(residuals(nb_counts, type="pearson")^2)/df.residual(nb_counts)

# [1] 0.7650289

¿Alguien puede explicar, SIN USAR ECUACIONES, por qué el estadístico de dispersión para la regresión binomial negativa es considerablemente más pequeño que el estadístico de dispersión para la regresión de Poisson?

Respuestas:


9

Esto es bastante sencillo, pero el "sin usar ecuaciones" es una desventaja sustancial. Puedo explicarlo en palabras, pero esas palabras necesariamente reflejarán ecuaciones. Espero que sea aceptable / aún de algún valor para usted. (Las ecuaciones relevantes no son difíciles).

Existen varios tipos de residuos. Los residuos sin procesar son simplemente la diferencia entre los valores de respuesta observados (en su caso, el counts) y los valores de respuesta pronosticados del modelo. Los residuos de Pearson los dividen por la desviación estándar (la raíz cuadrada de la función de varianza para la versión particular del modelo lineal generalizado que está utilizando).

La desviación estándar asociada con la distribución de Poisson es menor que la del binomio negativo . Por lo tanto, cuando divide por un denominador más grande, el cociente es más pequeño.

Además, el binomio negativo es más apropiado para su caso, ya countsque se distribuirá como un uniforme en la población. Es decir, su varianza no será igual a su media.


44
Aunque el OP solicita una explicación no matemática, aún sería bueno ver una justificación matemática (o alguna justificación igualmente rigurosa y clara) para esta respuesta. Al leer la pregunta, mi intuición fue que "Debido a que el Poisson es un caso especial (limitante) del NB y el NB tiene más parámetros, hay más flexibilidad en el ajuste, por lo que, por supuesto, cualquier medida razonable de residuos no debe aumentar al reemplazar un Poisson GLM por un NB GLM ". Me pregunto si tal intuición era realmente correcta.
whuber

Si , E [ X ] = V [ X ] = λ . Si X NegBin ( r , p ) , E [ X ] = p r / ( 1 - p ) y V [ X ] = p r / ( 1 - p ) 2XPoisson(λ)E[X]=V[X]=λXNegBin(r,p)E[X]=pr/(1p)V[X]=pr/(1p)2. Entonces, una varianza de Poisson es igual a la media, una varianza NegBin es mayor que la media ( ). Es por esto que "la desviación estándar asociada con la distribución de Poisson es menor que la del binomio negativo". p<1(1p)2<(1p)
Sergio

3
λ^λr^p^

Las estimaciones de MLE son consistentes. El problema es que cuando, como dice Gung, "los recuentos se distribuirán como un uniforme en la población. Es decir, su varianza no será igual a su media", nunca podrá obtener una varianza de Poisson estimada mayor que una estimada Poisson significa, incluso si sus estimaciones son imparciales y consistentes. Es un problema de especificación errónea.
Sergio

5

iYiμiμi

yiμ^iμ^i

μ^iYiμiμi+μ2θ

yiμ~iμ~i+μ~2θ

μ~θμ^μ~iCon el patrón predictivo, se acercarían y, en general, agregar un parámetro debería dar un mejor ajuste en todas las observaciones, aunque no sé cómo demostrarlo rigurosamente. De todos modos, las cantidades de población que está estimando son mayores si se cumple el modelo de Poisson, por lo que no debería ser una sorpresa.]


1
μi

@whuber En este caso, resulta que los valores ajustados para ambos modelos son casi idénticos. Después de todo, el modelo "verdadero" realmente solo tiene una intersección y básicamente está modelando la media ya que no hay relación entre x e Y en la simulación.
jsk

1
μi

1
μi

1
(yi|λ,vi,r)Poisson(λvi)(vi|λ,r)Gamma(r,r)(yi|λ,r)NB(r,λr+λ)viyi>λvi>1
Al usar nuestro sitio, usted reconoce que ha leído y comprende nuestra Política de Cookies y Política de Privacidad.
Licensed under cc by-sa 3.0 with attribution required.