Como o AIC ou o BIC podem ser usados ​​em vez da divisão trem / teste?


8

Recentemente, encontrei várias fontes "informais" que indicam que, em algumas circunstâncias, se usarmos o AIC ou o BIC para treinar um modelo de série temporal, não precisaremos dividir os dados em teste e treinamento - podemos usar todos os dados para treinamento. (As fontes incluem, entre outras, uma discussão no post de Rob Hyndman no CV , esta apresentação de Stanford ou a Seção 4 deste texto ).

Em particular, eles parecem indicar que o AIC ou o BIC podem ser usados ​​quando o conjunto de dados é muito pequeno para permitir uma divisão de trem / teste.

O comentário de Rob Hyndman, por exemplo: "É muito mais eficiente usar o AIC / BIC do que usar conjuntos de testes ou CV, e isso se torna essencial para séries temporais curtas, onde não há dados suficientes para fazer o contrário".

Não consigo, no entanto, encontrar textos ou documentos que discutam isso em detalhes.

Uma coisa que me intriga especialmente é que o AIC e o BIC tendem assintoticamente à validação cruzada, o que significa que, se possível, eles substituiriam o CV por grandes conjuntos de dados - o que contraria a ideia de serem úteis para pequenos conjuntos de dados.

Alguém pode me indicar uma discussão formal (capítulos de livros, artigos, tutoriais) dessa idéia?

Respostas:


4

No capítulo 5.5 deste livro , eles discutem como surgem muitos desses critérios de seleção de modelos. Eles começam com o critério FPE da Akaike para modelos de RA e depois discutem AIC, AICc e BIC. Eles percorrem as derivações completamente.

O que eles têm em comum é que eles investigam o que acontece quando você usa alguns dados observados na amostra para estimar os parâmetros do modelo e, em seguida, analisa alguma função de perda (erro médio de previsão quadrática ou divergência de KL) em alguns não observados / dados hipotéticos fora da amostra{Xt}{Yt}resultante do uso do modelo estimado nesses novos dados. As principais idéias são: a) você aceita a expectativa com relação a todos os dados e 2) usa alguns resultados assintóticos para obter expressões para algumas das expectativas. A quantidade de (1) fornece o desempenho geral esperado, mas (2) assume que você possui muito mais dados do que realmente possui. Não sou especialista, mas presumo que as abordagens de validação cruzada também atinjam essas medidas de desempenho; mas, em vez de considerar hipotéticos os dados fora da amostra, eles usam dados reais que foram separados dos dados de treinamento.

O exemplo mais simples é o critério do FPE. Suponha que você estime seu modelo de recuperação de dados em todos os dados (como o conjunto de testes) e obtenha . Em seguida, a perda esperada nos dados não observados (é hipotética, não é dividida como na validação cruzada) é {ϕ^i}i{Yt}

E(Yn+1ϕ^1Ynϕ^pYn+1p)2=E(Yn+1ϕ1YnϕpYn+1p(ϕ^1ϕ1)Yn(ϕ^pϕp)Yn+1p)2=E(Zt+(ϕ^1ϕ1)Yn(ϕ^pϕp)Yn+1p)2=σ2+E[E[((ϕ^1ϕ1)Yn(ϕ^pϕp)Yn+1p)2|{Xt}]]=σ2+E[i=1pj=1p(ϕ^iϕi)(ϕ^jϕj)E[Yn+1iYn+1j|{Xt}]]=σ2+E[(ϕ^pϕp)Γp(ϕ^pϕp)](typo in book: n1/2 should be n1/2)σ2(1+pn)(nσ^2/σ2 approx. χnp2)nσ^2np(1+pn)=σ^2n+pnp.

Não conheço nenhum documento que compare empiricamente o desempenho desses critérios com técnicas de validação cruzada. No entanto, este livro fornece muitos recursos sobre como o FPE, AIC, AICc e BIC se comparam.

Ao utilizar nosso site, você reconhece que leu e compreendeu nossa Política de Cookies e nossa Política de Privacidade.
Licensed under cc by-sa 3.0 with attribution required.