Dejar LL = verosimilitud
Aquí hay un resumen rápido de lo que ve en la salida de resumen (glm.fit),
Desviación nula = 2 (LL (modelo saturado) - LL (modelo nulo)) en df = df_Sat - df_Null
Desviación residual = 2 (LL (modelo saturado) - LL (modelo propuesto)) df = df_Sat - df_Proposed
El modelo saturado es un modelo que supone que cada punto de datos tiene sus propios parámetros (lo que significa que tiene n parámetros para estimar).
El modelo nulo supone el "opuesto" exacto, es decir, supone un parámetro para todos los puntos de datos, lo que significa que solo estima 1 parámetro.
El modelo propuesto supone que puede explicar sus puntos de datos con p parámetros + un término de intercepción, por lo que tiene parámetros p + 1.
Si su desviación nula es realmente pequeña, significa que el modelo nulo explica los datos bastante bien. Del mismo modo con su desviación residual .
¿Qué significa realmente pequeño? Si su modelo es "bueno", su desviación es de aproximadamente Chi ^ 2 con (df_sat - df_model) grados de libertad.
Si desea comparar su modelo nulo con su modelo propuesto, puede ver
(Desviación nula - Desviación residual) aproximadamente Chi ^ 2 con df Propuesta - df Nulo = (n- (p + 1)) - (n-1) = p
¿Son los resultados que dio directamente de R? Parecen un poco extraños, porque generalmente debería ver que los grados de libertad informados en el Nulo siempre son más altos que los grados de libertad informados en el Residual. Esto se debe a que, de nuevo, Desviación nula df = df saturado - nf df = n-1 Desviación residual df = df saturado - df propuesto = n- (p + 1)
GLM
?