Eu não estou tão familiarizado com esta literatura, então, por favor, perdoe-me se essa é uma pergunta óbvia.
Como o AIC e o BIC dependem da maximização da probabilidade, parece que eles só podem ser usados para fazer comparações relativas entre um conjunto de modelos que tentam ajustar um determinado conjunto de dados. De acordo com meu entendimento, não faria sentido calcular o AIC para o Modelo A no conjunto de dados 1, calcular o AIC para o Modelo B no conjunto de dados 2 e comparar os dois valores do AIC e julgar que (por exemplo) O modelo A se encaixa no conjunto de dados 1 melhor do que o modelo B se encaixa no conjunto de dados 2. Ou talvez eu esteja enganado e isso é uma coisa razoável a se fazer. Por favor deixe-me saber.
Minha pergunta é a seguinte: existe uma estatística de ajuste de modelo que pode ser usada para comparações absolutas em vez de apenas relativas? Para modelos lineares, algo como funcionaria; possui um alcance definido e disciplina idéias específicas sobre o que é um valor "bom". Estou procurando algo mais geral e achei que poderia começar fazendo ping nos especialistas aqui. Tenho certeza de que alguém já pensou nesse tipo de coisa antes, mas não conheço os termos certos para fazer uma pesquisa produtiva no Google Scholar.
Qualquer ajuda seria apreciada.