Infelizmente, esta pergunta não tem uma boa resposta. Você pode escolher o melhor modelo com base no fato de que ele minimiza o erro absoluto, o erro ao quadrado, maximiza a probabilidade, usando alguns critérios que penalizam a probabilidade (por exemplo, AIC, BIC) para mencionar apenas algumas opções mais comuns. O problema é que nenhum desses critérios permitirá que você escolha o modelo objetivamente melhor, mas o melhor a partir do qual você comparou. Outro problema é que, ao otimizar, você sempre pode terminar em um máximo / mínimo local. Ainda outro problema é que sua escolha de critérios para a seleção de modelos é subjetiva . Em muitos casos, você, consciente ou semi-conscientemente, decide sobre o que está interessado e escolhe os critérios com base nisso. Por exemplo, usar o BIC em vez do AIC leva a modelos mais parcimoniosos, com menos parâmetros. Geralmente, para modelagem, você está interessado em modelos mais parcimoniosos que levam a algumas conclusões gerais sobre o universo, enquanto que para prever isso não precisa ser assim, e às vezes um modelo mais complicado pode ter um melhor poder preditivo (mas não precisa e muitas vezes isso não). Em outros casos, por vezes, modelos mais complicados são preferidos por razões práticas , por exemplo, ao estimar o modelo bayesiano com o MCMC, o modelo com hiperprioridades hierárquicas pode se comportar melhor em simulação do que o mais simples. Por outro lado, geralmente temos medo de ajustar demaise o modelo mais simples tem o menor risco de sobreajuste, por isso é uma escolha mais segura. Um bom exemplo disso é uma seleção automática de modelos passo a passo que geralmente não é recomendada, pois leva facilmente a estimativas excessivamente ajustadas e tendenciosas. Há também um argumento filosófico, a lâmina de Occam , de que o modelo mais simples é o preferido. Observe também que estamos discutindo aqui a comparação de modelos diferentes, enquanto que em situações da vida real também é possível que o uso de ferramentas estatísticas diferentes leve a resultados diferentes - para que exista uma camada adicional de escolha do método!
Tudo isso leva a um fato triste, mas divertido, de que nunca podemos ter certeza. Começamos com a incerteza, usamos métodos para lidar com isso e acabamos com a incerteza. Isso pode ser paradoxal, mas lembre-se de que usamos estatísticas porque acreditamos que o mundo é incerto e probabilístico (caso contrário, escolheríamos uma carreira de profetas), então como poderíamos terminar com conclusões diferentes? Não existe uma regra objetiva de parada, existem vários modelos possíveis, todos eles estão errados (desculpe o clichê!) Porque tentam simplificar a realidade complicada (em constante mudança e probabilística). Achamos que alguns deles são mais úteis que outros para nossos propósitos e, às vezes, fazerencontre diferentes modelos úteis para diferentes fins. Você pode ir ao fundo para perceber que, em muitos casos, criamos modelos desconhecidosθ, que na maioria dos casos nunca pode ser conhecido, ou mesmo não existe (uma população tem algumaμpara a idade?). A maioria dos modelos que não adianta tentar descrever a realidade, mas sim fornecer abstrações e generalizações, então eles não podem ser "certo" ou "correta".
Você pode ir ainda mais fundo e descobrir que não existe "probabilidade" na realidade - é apenas uma aproximação da incerteza à nossa volta e também existem maneiras alternativas de aproximar isso, por exemplo, lógica difusa (ver Kosko, 1993 para discussão). Mesmo as ferramentas e teoremas muito básicos nos quais nossos métodos se baseiam são aproximações e não são os únicos possíveis. Simplesmente não podemos ter certeza de tal configuração.
A regra de parada que você está procurando é sempre específica e subjetiva do problema, ou seja, baseada no chamado julgamento profissional. A propósito, existem muitos exemplos de pesquisa que mostram que os profissionais geralmente não são melhores e, às vezes, piores em seus julgamentos do que os leigos (por exemplo, revividos em papéis e livros por Daniel Kahneman ), embora sejam mais propensos a excesso de confiança (isso é realmente uma discussão sobre por que não devemos tentar "ter certeza" sobre nossos modelos).
Kosko, B. (1993). Pensamento nebuloso: a nova ciência da lógica nebulosa. Nova York: Hyperion.