Estou fazendo um curso de Introdução à Bayes e estou tendo dificuldades para entender as distribuições preditivas. Entendo por que eles são úteis e estou familiarizado com a definição, mas há algumas coisas que não entendo direito.
1) Como obter a distribuição preditiva correta para um vetor de novas observações
Suponha que tenhamos construído um modelo de amostragem para os dados e um . Suponha que as observações sejam condicionalmente independentes, dadas .p ( θ ) y i θ
Observamos alguns dados e atualizamos nosso para o .p ( θ ) p ( θ | D )
Se quisermos prever um vetor de novas observações , eu acho que deveríamos tentar obter a previsão posterior usando essa fórmula que não é igual a então as observações previstas não são independentes, certo?p ( N | D ) = ∫ p ( θ | D ) p ( N | θ )
Diga isso Beta ( ) Binomial ( ) para um fixo . Nesse caso, se eu quisesse simular 6 novos , se eu entendesse isso corretamente, seria errado simular 6 desenhos independentemente da distribuição beta-binomial que corresponde ao preditivo posterior para uma única observação. Isso está correto? Não sei como interpretar que as observações não são independentes marginalmente, e não tenho certeza se entendi corretamente.
Simulando a partir de preditivos posteriores
Muitas vezes, quando simulamos dados do preditivo posterior, seguimos este esquema:
Para de 1 a :
1) Amostra de .
2) Em seguida, simule novos dados de .
Não sei como provar que esse esquema funciona, embora pareça intuitivo. Além disso, isso tem um nome? Tentei procurar uma justificativa e tentei nomes diferentes, mas não tive sorte.
Obrigado!