Encontrei duas definições na literatura para o tempo de autocorrelação de uma série temporal fracamente estacionária:
onde é a autocorrelação no atraso.
Uma aplicação do tempo de autocorrelação é encontrar o "tamanho efetivo da amostra": se você possui observações de uma série temporal e conhece o tempo de autocorrelação τ , pode fingir que possui
amostras independentes em vez de amostras correlacionadas com o objetivo de encontrar a média. A estimativa de τ a partir dos dados não é trivial, mas existem algumas maneiras de fazê-lo (consulte Thompson 2010 ).
A definição sem valores absolutos, , parece mais comum na literatura; mas admite a possibilidade de τ a < 1 . Usando R e o pacote "coda":
require(coda)
ts.uncorr <- arima.sim(model=list(),n=10000) # white noise
ts.corr <- arima.sim(model=list(ar=-0.5),n=10000) # AR(1)
effectiveSize(ts.uncorr) # Sanity check
# result should be close to 10000
effectiveSize(ts.corr)
# result is in the neighborhood of 30000... ???
A função "effectiveSize" em "coda" usa uma definição do tempo de autocorrelação equivalente a , acima. Existem alguns outros pacotes R por aí que calculam o tamanho efetivo da amostra ou o tempo de autocorrelação, e todos os que tentei fornecem resultados consistentes com isso: que um processo AR (1) com um coeficiente de AR negativo tem amostras mais eficazes do que as correlacionadas séries temporais. Isso parece estranho.
Obviamente, isso nunca pode acontecer no definição de tempo de autocorrelação.
Qual é a definição correta de tempo de autocorrelação? Existe algo errado com minha compreensão dos tamanhos efetivos das amostras? O resultado mostrado acima parece estar errado ... o que está acontecendo?