Eu sugeriria o livro Análise Bayesiana de Dados como uma excelente fonte para responder a essa pergunta (em particular o capítulo 6) e tudo o que estou prestes a dizer. Mas uma das maneiras usuais de os bayesianos atacarem esse problema é usar valores-P preditivos posteriores (PPPs). Antes de abordar como as PPPs resolveriam esse problema, primeiro defina a seguinte notação:
Seja os dados observados e θ seja o vetor de parâmetros. Nós definimosyθ como osdadosreplicadosquepoderiam tersido observados, ou, pensando preditivamente, como os dados queveríamosamanhã se o experimento que produziu y hoje fosse replicado com o mesmo modelo e o mesmo valor deque produziu o dados observados.yrepyθ
Observe que definiremos a distribuição de dado o estado atual do conhecimento com a distribuição preditiva posterior
p ( y rep | y ) = ∫ q p ( y rep | θ ) p ( θ | y ) d θyrepresentante
p ( yrepresentante| y) = ∫Θp ( yrepresentante| θ)p(θ | y) dθ
Agora, podemos medir a discrepância entre o modelo e os dados, definindo as quantidades de teste , os aspectos dos dados que desejamos verificar. Uma quantidade de teste ou medida de discrepância , , é um resumo escalar de parâmetros e dados que é usado como padrão ao comparar dados com simulações preditivas. As quantidades de teste desempenham o papel no modelo bayesiano, verificando se as estatísticas de teste desempenham nos testes clássicos. Definimos a notação para uma estatística de teste, que é uma quantidade de teste que depende apenas dos dados; no contexto bayesiano, podemos generalizar as estatísticas dos testes para permitir a dependência dos parâmetros do modelo em sua distribuição posterior.T ( y )T( y, θ )T( y)
Classicamente, o valor p para a estatística de teste é
onde a probabilidade é obtida sobre a distribuição de com corrigido.p C = Pr ( T ( y rep ) ≥ T ( y ) | θ ) y rep θT( y)
pC= Pr ( T( yrepresentante) ≥ T( y) | θ )
yrepresentanteθ
Do ponto de vista bayesiano, a falta de ajuste dos dados em relação à distribuição preditiva posterior pode ser medida pela probabilidade da área da cauda, ou valor p, da quantidade de teste e calculada usando simulações posteriores de . Na abordagem bayesiana, as quantidades de teste podem ser funções dos parâmetros desconhecidos, bem como dados, porque a quantidade de teste é avaliada com base na distribuição posterior dos parâmetros desconhecidos.( θ , yrepresentante)
Agora, podemos definir o valor p Bayesiano (PPP) como a probabilidade de que os dados replicados possam ser mais extremos que os dados observados, conforme medido pela quantidade de teste:
pB= Pr ( T( yrepresentante, θ ) ≥ T( y, θ ) | y)
onde a probabilidade é assumida sobre a distribuição posterior de e a distribuição preditiva posterior de (que é, a distribuição conjunta, ):
que sou a função do indicador. Na prática, porém, geralmente calculamos a distribuição preditiva posterior usando simulações.
θyrepresentantep ( θ , yrepresentante| y)pB= ∬ΘEuT( yrepresentante, θ ) ≥ T( y| θ)p ( yrepresentante| θ)p(θ | y) dyrepresentantedθ ,
Eu
Se já temos, digamos, simulações em da distribuição posterior de , podemos apenas desenhar um da distribuição preditiva para cada simuladoeuθyrepresentanteθ ; agora temos desenha da distribuição posterior da articulação, . A verificação preditiva posterior é a comparação entre as quantidades de teste realizadas e as quantidades de teste preditivo . O valor p estimado é apenas a proporção dessas simulações para as quais a quantidade de teste é igual ou superior ao seu valor realizado; isto é, para o qualeup ( yrepresentante, θ | y)T( y, θeu)T( yrep l, θeu)eu
T( yrep l, θeu) ≥ T( y, θeu)
para .
l = 1 , . . . , L
Em contraste com a abordagem clássica, a verificação do modelo bayesiano não requer métodos especiais para lidar com "parâmetros incômodos". Usando simulações posteriores, calculamos a média implicitamente de todos os parâmetros no modelo.
Uma fonte adicional, Andrew Gelman, também tem um artigo muito bom sobre PPPs aqui:
http://www.stat.columbia.edu/~gelman/research/unpublished/ppc_understand2.pdf