Como se señaló anteriormente en este y otros hilos: (1) La prueba de Durbin-Watson no es concluyente. Solo los límites sugeridos inicialmente por Durbin y Watson se debieron a que la distribución precisa depende de la matriz regresora observada. Sin embargo, esto es bastante fácil de abordar en el software estadístico / econométrico por ahora. (2) Hay generalizaciones de la prueba de Durbin-Watson a retrasos más altos. Entonces, ni la inconclusión ni la limitación de los retrasos es un argumento en contra de la prueba de Durbin-Watson.
En comparación con la prueba de Wald de la variable dependiente retrasada, la prueba de Durbin-Watson puede tener mayor potencia en ciertos modelos. Específicamente, si el modelo contiene tendencias deterministas o patrones estacionales, puede ser mejor probar la autocorrelación en los residuos (como lo hace la prueba de Durbin-Watson) en comparación con incluir la respuesta retardada (que aún no está ajustada para los patrones deterministas) . Incluyo una pequeña simulación R a continuación.
Un inconveniente importante de la prueba de Durbin-Watson es que no debe aplicarse a modelos que ya contienen efectos autorregresivos. Por lo tanto, no puede probar la autocorrelación residual restante después de capturarla parcialmente en un modelo autorregresivo. En ese escenario, el poder de la prueba de Durbin-Watson puede romperse por completo, mientras que para la prueba de Breusch-Godfrey, por ejemplo, no lo hace. Nuestro libro "Econometría aplicada con R" tiene un pequeño estudio de simulación que muestra esto en el capítulo "Programación de su propio análisis", consulte http://eeecon.uibk.ac.at/~zeileis/teaching/AER/ .
Sin embargo, para un conjunto de datos con tendencia más errores autocorrelacionados, el poder de la prueba de Durbin-Watson es mayor que para la prueba de Breusch-Godfrey, y también mayor que para la prueba de Wald de efecto autorregresivo. Ilustraré esto para un pequeño escenario simple en R. Extraigo 50 observaciones de dicho modelo y calculo los valores p para las tres pruebas:
pvals <- function()
{
## data with trend and autocorrelated error term
d <- data.frame(
x = 1:50,
err = filter(rnorm(50), 0.25, method = "recursive")
)
## response and corresponding lags
d$y <- 1 + 1 * d$x + d$err
d$ylag <- c(NA, d$y[-50])
## OLS regressions with/without lags
m <- lm(y ~ x, data = d)
mlag <- lm(y ~ x + ylag, data = d)
## p-value from Durbin-Watson and Breusch-Godfrey tests
## and the Wald test of the lag coefficient
c(
"DW" = dwtest(m)$p.value,
"BG" = bgtest(m)$p.value,
"Coef-Wald" = coeftest(mlag)[3, 4]
)
}
Entonces podemos simular 1000 valores p para los tres modelos:
set.seed(1)
p <- t(replicate(1000, pvals()))
La prueba de Durbin-Watson conduce a los valores p promedio más bajos
colMeans(p)
## DW BG Coef-Wald
## 0.1220556 0.2812628 0.2892220
y la potencia más alta con un nivel de significación del 5%:
colMeans(p < 0.05)
## DW BG Coef-Wald
## 0.493 0.256 0.248