As verificações preditivas posteriores estão, em palavras simples, "simulando dados replicados sob o modelo ajustado e depois comparando-os com os dados observados" ( Gelman e Hill, 2007, p. 158 ). Portanto, você usa a previsão posterior para "procurar discrepâncias sistemáticas entre dados reais e simulados" ( Gelman et al. 2004, p. 169 ).
O argumento sobre "usar os dados duas vezes" é que você usa seus dados para estimar o modelo e, em seguida, para verificar se o modelo se ajusta aos dados, embora geralmente seja uma má idéia e seria melhor validar seu modelo em dados externos , que não foi usado para estimativa.
As verificações preditivas posteriores são úteis para avaliar se o seu modelo fornece previsões "válidas" sobre a realidade - elas se encaixam nos dados observados ou não. É uma fase útil da construção e verificação de modelos. Ele não fornece uma resposta definitiva sobre se seu modelo está "ok" ou se é "melhor" que outro modelo; no entanto, pode ajudá-lo a verificar se seu modelo faz sentido.
Isso é bem descrito na vinheta LaplacesDemon Inferência Bayesiana :
yrepresentantey
As verificações preditivas posteriores (por meio da distribuição preditiva) envolvem o uso duplo dos dados, o que viola o princípio da probabilidade. No entanto, argumentos foram apresentados a favor de verificações preditivas posteriores, desde que o uso seja limitado a medidas de discrepância para estudar a adequação do modelo, não para comparação e inferência do modelo (Meng 1994).
yrepresentanteyyyrepresentante