Conforme indicado anteriormente neste e em outros tópicos: (1) O teste de Durbin-Watson não é inconclusivo. Somente os limites sugeridos inicialmente por Durbin e Watson foram porque a distribuição precisa depende da matriz regressora observada. No entanto, isso é fácil o suficiente para abordar em software estatístico / econométrico agora. (2) Existem generalizações do teste de Durbin-Watson para defasagens mais altas. Portanto, nem a inconclusividade nem a limitação de defasagens são argumentos contra o teste de Durbin-Watson.
Em comparação com o teste de Wald da variável dependente defasada, o teste de Durbin-Watson pode ter maior poder em certos modelos. Especificamente, se o modelo contiver tendências determinísticas ou padrões sazonais, pode ser melhor testar a autocorrelação nos resíduos (como faz o teste de Durbin-Watson) em comparação à inclusão da resposta defasada (que ainda não está ajustada para os padrões determinísticos) . Eu incluo uma pequena simulação R abaixo.
Uma desvantagem importante do teste de Durbin-Watson é que ele não deve ser aplicado a modelos que já contêm efeitos autorregressivos. Portanto, não é possível testar a autocorrelação residual restante após capturá-la parcialmente em um modelo autoregressivo. Nesse cenário, o poder do teste de Durbin-Watson pode ser completamente quebrado, enquanto no teste de Breusch-Godfrey, por exemplo, não ocorre. Nosso livro "Econometria aplicada com R" possui um pequeno estudo de simulação que mostra isso no capítulo "Programando sua própria análise", consulte http://eeecon.uibk.ac.at/~zeileis/teaching/AER/ .
No entanto, para um conjunto de dados com tendência e erros autocorrelacionados, o poder do teste de Durbin-Watson é maior do que para o teste de Breusch-Godfrey, porém, e também maior do que para o teste de Wald de efeito autoregressivo. Ilustro isso para um cenário pequeno e simples em R. Retiro 50 observações desse modelo e calculo valores de p para todos os três testes:
pvals <- function()
{
## data with trend and autocorrelated error term
d <- data.frame(
x = 1:50,
err = filter(rnorm(50), 0.25, method = "recursive")
)
## response and corresponding lags
d$y <- 1 + 1 * d$x + d$err
d$ylag <- c(NA, d$y[-50])
## OLS regressions with/without lags
m <- lm(y ~ x, data = d)
mlag <- lm(y ~ x + ylag, data = d)
## p-value from Durbin-Watson and Breusch-Godfrey tests
## and the Wald test of the lag coefficient
c(
"DW" = dwtest(m)$p.value,
"BG" = bgtest(m)$p.value,
"Coef-Wald" = coeftest(mlag)[3, 4]
)
}
Em seguida, podemos simular 1000 valores p para todos os três modelos:
set.seed(1)
p <- t(replicate(1000, pvals()))
O teste de Durbin-Watson leva aos menores valores médios de p
colMeans(p)
## DW BG Coef-Wald
## 0.1220556 0.2812628 0.2892220
e o poder mais alto no nível de significância de 5%:
colMeans(p < 0.05)
## DW BG Coef-Wald
## 0.493 0.256 0.248