Atualmente, estou estimando parâmetros de um modelo definido por várias equações diferenciais ordinárias (ODEs). Eu tento isso com uma abordagem bayesiana aproximando a distribuição posterior dos parâmetros dados alguns dados usando a cadeia de Markov Monte Carlo (MCMC).
Um amostrador MCMC gera uma cadeia de valores de parâmetros em que utiliza a probabilidade posterior (não normalizada) de um determinado valor de parâmetro para decidir (estocisticamente) se irá adicionar esse valor à cadeia ou adicionar o valor anterior novamente. Porém, parece ser a prática que as probabilidades posteriores reais não precisam ser salvas, mas sim um histograma n-dimensional dos valores de parâmetros resultantes gerados e estatísticas resumidas como regiões de maior densidade (HDRs) de uma ditribuição posterior de parâmetro são calculadas deste histograma. Pelo menos foi o que acho que aprendi com o livro tutorial de Kruschkes sobre inferência bayesiana .
Minha pergunta: não seria mais simples salvar as probabilidades posteriores dos valores dos parâmetros amostrados junto com eles e aproximar a distribuição posterior desses valores e não das frequências dos valores dos parâmetros na cadeia MCMC? O problema da fase de queima não surgiria, pois o amostrador ainda amostraria regiões de baixa probabilidade com mais freqüência do que "mereceria" por suas probabilidades posteriores, mas não seria mais o problema de atribuir valores de probabilidade indevidamente altos a elas.