¿Por qué el cuasi-Poisson en GLM no se trata como un caso especial de binomio negativo?


21

Estoy tratando de ajustar modelos lineales generalizados a algunos conjuntos de datos de conteo que pueden o no estar dispersos. Las dos distribuciones canónicas que se aplican aquí son Poisson y Binomial Negativo (Negbin), con EV y varianza.μ

VarP=μ

VarNB=μ+μ2θ

que pueden ajustarse en R usando glm(..,family=poisson)y glm.nb(...), respectivamente. También está la quasipoissonfamilia, que en mi opinión es un Poisson ajustado con el mismo EV y varianza.

,VarQP=ϕμ

es decir, caer en algún lugar entre Poisson y Negbin. El principal problema con la familia de cuasipoisson es que no hay una probabilidad correspondiente para ello y, por lo tanto, muchas pruebas estadísticas y medidas de ajuste extremadamente útiles (AIC, LR, etcétera) no están disponibles.

Si compara las variaciones QP y Negbin, podría notar que podría igualarlas poniendo . Continuando con esta lógica, podría intentar expresar la distribución de cuasipoisson como un caso especial de Negbin:ϕ=1+μθ

,QP(μ,ϕ)=NB(μ,θ=μϕ1)

es decir, un Negbin con linealmente dependiente de μ . Traté de verificar esta idea generando una secuencia aleatoria de números de acuerdo con la fórmula anterior y ajustándola con :θμglm

#fix parameters

phi = 3
a = 1/50
b = 3
x = 1:100

#generating points according to an exp-linear curve
#this way the default log-link recovers the same parameters for comparison

mu = exp(a*x+b) 
y = rnbinom(n = length(mu), mu = mu, size = mu/(phi-1)) #random negbin generator

#fit a generalized linear model y = f(x)  
glmQP = glm(y~x, family=quasipoisson) #quasipoisson
glmNB = glm.nb(y~x) #negative binomial

> glmQP

Call:  glm(formula = y ~ x, family = quasipoisson)

Coefficients:
(Intercept)            x  
    3.11257      0.01854  
(Dispersion parameter for quasipoisson family taken to be 3.613573)

Degrees of Freedom: 99 Total (i.e. Null);  98 Residual
Null Deviance:      2097 
Residual Deviance: 356.8    AIC: NA

> glmNB

Call:  glm.nb(formula = y ~ x, init.theta = 23.36389741, link = log)

Coefficients:
(Intercept)            x  
    3.10182      0.01873  

Degrees of Freedom: 99 Total (i.e. Null);  98 Residual
Null Deviance:      578.1 
Residual Deviance: 107.8    AIC: 824.7

Ambos ajustes reproducen los parámetros, y el cuasipoisson da una estimación "razonable" para . Ahora también podemos definir un valor AIC para el cuasipoisson:ϕ

df = 3 # three model parameters: a,b, and phi
phi.fit = 3.613573 #fitted phi value copied from summary(glmQP)
mu.fit = glmQP$fitted.values 

#dnbinom = negbin density, log=T returns log probabilities
AIC = 2*df - 2*sum(dnbinom(y, mu=mu.fit, size = mu.fit/(phi.fit - 1), log=T))
> AIC
[1] 819.329

(Tuve que copiar manualmente el equipada valor a partir , ya que no pude encontrar en el objeto)ϕsummary(glmQP)glmQP

AICQP<AICNBAICQP

  1. ¿Tiene sentido esta idea? ¿Mi verificación se basa en un razonamiento circular?
  2. La pregunta principal para cualquier persona que 'inventa' algo que parece faltar en un tema bien establecido: si esta idea tiene sentido, ¿por qué no está implementada glm?

Editar: figura agregada

ajustes glm y + -1 bandas sigma


1
(+1) ¡Bienvenido a Cross Validated! Y gracias por una excelente pregunta (aunque algunos comentarios en el código pueden ser buenos para las personas que no usan R). Creo que puede haber reinventado el modelo NB1 (aunque todavía no lo he seguido en detalle). Tenga en cuenta también que no hay una distribución cuasi-Poisson , razón por la cual no hay probabilidad o AIC, solo se refiere a una forma de ajustar las medias y las variaciones.
Scortchi - Restablece a Monica

2
¡Gracias! Mientras tanto, agregué algunos comentarios, espero que eso aclare las cosas. Entiendo que la distribución cuasi-Poisson no existe per se ; lo que realmente estaba tratando de entender es por qué QP es incluso una cosa, teniendo en cuenta que la distribución NB1 existe y no tiene ninguno de los cuasi-problemas de QP (Ver la respuesta de Achims para una resolución aparente).
user28400

1
XPois(λ)Y=kXYμ=kλkμk10,k,2k,...

1
@Glen_b: ¿La gente realmente llama a eso cuasi-Poisson? En cualquier caso, es una buena ilustración: cuando usas un modelo "cuasiPoisson" no estás asumiendo realmente esa distribución, o el NB1, o cualquier otro, solo una relación entre la media y la varianza que hace que tus estimaciones de coeficientes y sus errores estándar mejor a medida que la muestra se hace más grande.
Scortchi - Restablece a Monica

1
@Scortchi Es la única distribución familiar exponencial que satisface los supuestos del cuasi-Poisson, así que, en ocasiones, he visto a personas señalar que es la distribución lo que implica el supuesto. Por supuesto, cuando las personas lo usan, casi * nunca tienen la intención de que sus datos provengan de esa distribución específica; solo pretenden ser una descripción aproximada de cómo se relacionan su media y su varianza. (Puede tener sentido bajo suposiciones muy simples en algunas aplicaciones de seguros: costo total de reclamos, donde el número de reclamos es Poisson y el costo por reclamo es efectivamente constante.)
Glen_b -Reinstale a Monica el

Respuestas:


24

El cuasi-Poisson no es un modelo de máxima verosimilitud total (ML) sino un modelo cuasi-ML. Simplemente use la función de estimación (o función de puntuación) del modelo de Poisson para estimar los coeficientes, y luego emplee una determinada función de varianza para obtener errores estándar adecuados (o más bien una matriz de covarianza completa) para realizar la inferencia. Por lo tanto, glm()no suministra y / logLik()o AIC()aquí, etc.

sizeθiμi

Si no hay regresores (solo una intersección), la parametrización NB1 y la parametrización NB2 empleadas por MASS's glm.nb()coinciden. Con los regresores difieren. En la literatura estadística, la parametrización NB2 se usa con mayor frecuencia, pero algunos paquetes de software también ofrecen la versión NB1. Por ejemplo, en R, puede usar el gamlsspaquete para hacer gamlss(y ~ x, family = NBII). Tenga en cuenta que gamlssutiliza algo confuso NBIpara la parametrización NB2 y NBIIpara NB1. (Pero la jerga y la terminología no están unificadas en todas las comunidades).

Entonces podría preguntar, por supuesto, ¿por qué usar cuasi-Poisson si hay NB1 disponible? Todavía hay una sutil diferencia: el primero usa cuasi-ML y obtiene la estimación de la dispersión a partir de los residuos de desviación cuadrática (o Pearson). Este último usa ML completo. En la práctica, la diferencia a menudo no es grande, pero las motivaciones para usar cualquiera de los modelos son ligeramente diferentes.


1
¡Gracias! Respuesta muy útil, estoy experimentando gamlssahora y parece que es exactamente lo que necesitaba. ¿Podría dar más detalles sobre las motivaciones para usar cuasi-verosimilitud versus ML completo?
user28400

2
Asumes menos: simplemente asumes (1) una relación logarítmica lineal entre la expectativa y los regresores (2) una relación lineal entre la varianza y la expectativa. El resto de la probabilidad se deja completamente sin especificar. Como alternativa a (2), los profesionales a veces emplean los llamados errores estándar de emparedado "robustos" que permitirían patrones de heterocedasticidad más generales. Por supuesto, también se podría emplear el NB1 con errores estándar sandwich ... Algunos comentarios más están en nuestro vignette("countreg", package = "pscl").
Achim Zeileis
Al usar nuestro sitio, usted reconoce que ha leído y comprende nuestra Política de Cookies y Política de Privacidad.
Licensed under cc by-sa 3.0 with attribution required.