(Essa pergunta pode parecer mais adequada para o Philosophy SE. Espero que os estatísticos possam esclarecer meus equívocos sobre as declarações de Box e Shmueli, por isso estou publicando aqui).
George Box (da fama do ARIMA) disse:
"Todos os modelos estão errados, mas alguns são úteis."
Galit Shmueli, em seu famoso artigo "Explicar ou prever" , argumenta (e cita outros que concordam com ela) que:
Explicar e prever não são os mesmos, e que alguns modelos fazem um bom trabalho de explicação, mesmo que façam um mau trabalho na previsão.
Eu sinto que esses princípios são de alguma forma contraditórios.
Se um modelo não prevê bem, é útil?
Mais importante, se um modelo explica bem (mas não necessariamente prevê bem), então deve ser verdade (isto é, não errado) de uma maneira ou de outra. Então, como isso se encaixa nos "todos os modelos estão errados" da Box?
Finalmente, se um modelo explica bem, mas não prevê bem, como é mesmo científico? A maioria dos critérios de demarcação científica (verificacionismo, falsificacionismo, etc ...) implica que uma afirmação científica precisa ter poder preditivo ou coloquialmente: uma teoria ou modelo está correto somente se puder ser empiricamente testado (ou falsificado), o que significa que precisa prever resultados futuros.
Minhas perguntas:
- A afirmação de Box e as idéias de Shmueli são realmente contraditórias ou estou faltando alguma coisa, por exemplo, um modelo não pode ter poder preditivo e ainda assim ser útil?
- Se as afirmações de Box e Shmueli não são contraditórias, o que significa um modelo estar errado e não prever bem, mas ainda assim ter poder explicativo? Em outras palavras: se alguém tira a correção e a capacidade preditiva, o que resta de um modelo?
Quais validações empíricas são possíveis quando um modelo tem poder explicativo, mas não poder preditivo? Shmueli menciona coisas como: use o AIC para explicação e o BIC para previsão, etc, ... mas não vejo como isso resolve o problema. Com modelos preditivos, você pode usar o AIC ou BIC, ou ou regularização, etc ... mas finalmente fora de testes e desempenho da amostra na produção é o que determina a qualidade do modelo. Mas para modelos que explicam bem, não vejo como alguma função de perda possa realmente avaliar um modelo. Na filosofia da ciência, existe o conceito de sub-determinaçãoo que parece pertinente aqui: para qualquer conjunto de dados, sempre é possível escolher criteriosamente alguma distribuição (ou mistura de distribuições) e a função de perda forma que elas se ajustem aos dados (e, portanto, pode-se afirmar que o explicam). Além disso, o limiar em que deve estar abaixo para que alguém afirme que o modelo explica adequadamente os dados é arbitrário (tipo de p-valores semelhantes, por que é e não ou ?).
- Com base no exposto, como validar objetivamente um modelo que explica bem, mas não prevê bem, já que o teste fora da amostra não é possível?