¿Por qué usar Durbin-Watson en lugar de probar la autocorrelación?


10

La prueba de Durbin-Watson prueba la autocorrelación de residuos en el retraso 1. Pero también lo hace la prueba de la autocorrelación en el retraso 1 directamente. Además, puede probar la autocorrelación en el retraso 2,3,4 y hay buenas pruebas de portmanteau para la autocorrelación en varios retrasos, y obtener gráficos agradables y fácilmente interpretables [por ejemplo, la función acf () en R]. Durbin-Watson no es intuitivo de entender, y a menudo produce resultados no concluyentes. Entonces, ¿por qué usarlo?

Esto se inspiró en esta pregunta sobre la falta de conclusión de algunas pruebas de Durbin-Watson, pero está claramente separada de ella.


1
De hecho, puedes hacer Durbin-Watson para otros retrasos. Consulte las estadísticas generalizadas de Durbin-Watson.
Brandon Sherman

Respuestas:


8

Como se señaló anteriormente en este y otros hilos: (1) La prueba de Durbin-Watson no es concluyente. Solo los límites sugeridos inicialmente por Durbin y Watson se debieron a que la distribución precisa depende de la matriz regresora observada. Sin embargo, esto es bastante fácil de abordar en el software estadístico / econométrico por ahora. (2) Hay generalizaciones de la prueba de Durbin-Watson a retrasos más altos. Entonces, ni la inconclusión ni la limitación de los retrasos es un argumento en contra de la prueba de Durbin-Watson.

En comparación con la prueba de Wald de la variable dependiente retrasada, la prueba de Durbin-Watson puede tener mayor potencia en ciertos modelos. Específicamente, si el modelo contiene tendencias deterministas o patrones estacionales, puede ser mejor probar la autocorrelación en los residuos (como lo hace la prueba de Durbin-Watson) en comparación con incluir la respuesta retardada (que aún no está ajustada para los patrones deterministas) . Incluyo una pequeña simulación R a continuación.

Un inconveniente importante de la prueba de Durbin-Watson es que no debe aplicarse a modelos que ya contienen efectos autorregresivos. Por lo tanto, no puede probar la autocorrelación residual restante después de capturarla parcialmente en un modelo autorregresivo. En ese escenario, el poder de la prueba de Durbin-Watson puede romperse por completo, mientras que para la prueba de Breusch-Godfrey, por ejemplo, no lo hace. Nuestro libro "Econometría aplicada con R" tiene un pequeño estudio de simulación que muestra esto en el capítulo "Programación de su propio análisis", consulte http://eeecon.uibk.ac.at/~zeileis/teaching/AER/ .

Sin embargo, para un conjunto de datos con tendencia más errores autocorrelacionados, el poder de la prueba de Durbin-Watson es mayor que para la prueba de Breusch-Godfrey, y también mayor que para la prueba de Wald de efecto autorregresivo. Ilustraré esto para un pequeño escenario simple en R. Extraigo 50 observaciones de dicho modelo y calculo los valores p para las tres pruebas:

pvals <- function()
{
  ## data with trend and autocorrelated error term
  d <- data.frame(
    x = 1:50,
    err = filter(rnorm(50), 0.25, method = "recursive")
  )

  ## response and corresponding lags
  d$y <- 1 + 1 * d$x + d$err
      d$ylag <- c(NA, d$y[-50])

  ## OLS regressions with/without lags
  m <- lm(y ~ x, data = d)
  mlag <- lm(y ~ x + ylag, data = d)

  ## p-value from Durbin-Watson and Breusch-Godfrey tests
  ## and the Wald test of the lag coefficient
  c(
    "DW" = dwtest(m)$p.value,
        "BG" = bgtest(m)$p.value,
    "Coef-Wald" = coeftest(mlag)[3, 4]
  )
}

Entonces podemos simular 1000 valores p para los tres modelos:

set.seed(1)
p <- t(replicate(1000, pvals()))

La prueba de Durbin-Watson conduce a los valores p promedio más bajos

colMeans(p)
##        DW        BG Coef-Wald 
## 0.1220556 0.2812628 0.2892220 

y la potencia más alta con un nivel de significación del 5%:

colMeans(p < 0.05)
##        DW        BG Coef-Wald 
##     0.493     0.256     0.248 

Entonces, otra limitación de la estadística DW es que no se puede usar si el modelo ya intenta controlar la autocorrelación. Aprecio el hecho de que el DW tiene más poder que Wald o Breusch-Godfrey (ninguno de los cuales he usado), pero mi comparación habitual es con una prueba de portmanteau como Ljung-Box y las autocorrelaciones individuales en comparación con un nulo de 0. Ese es un régimen típico en la predicción de libros de texto.
zbicyclist

2
No es realmente otra limitación de la OMI, sino la principal limitación. Se pueden tratar los otros problemas (cálculo de valores p en lugar de límites y número de rezagos). Y tenga cuidado con la interpretación de potencia: dije que en este modelo en particular - tendencia determinista con término de error AR (1) - la prueba de Durbin-Watson tiene una potencia más alta. Este puede no ser el caso en muchas otras configuraciones. Y en cuanto a la prueba de Ljung-Box: Sí, esta es la prueba clásica para verificar la autocorrelación restante después de ajustar un modelo ARIMA.
Achim Zeileis

3

La prueba de Durbin-Watson es cómo se prueba la autocorrelación. Trazar un ACF es como hacer un gráfico QQ para probar la normalidad. Es útil poder observar una gráfica QQ para evaluar la normalidad, pero una prueba de Kolmogorov-Smirnov o Levene complementa lo que se ve en la gráfica porque una prueba de hipótesis de normalidad es más concluyente.

Con respecto a los retrasos múltiples, puede usar una estadística generalizada de Durbin-Watson, ejecutar algunas pruebas de hipótesis y hacer una corrección de Bonferroni para corregir las pruebas múltiples. También puede ejecutar una prueba Breusch-Godfrey , que prueba la presencia de una correlación de cualquier orden.

Al usar nuestro sitio, usted reconoce que ha leído y comprende nuestra Política de Cookies y Política de Privacidad.
Licensed under cc by-sa 3.0 with attribution required.