A amostragem de um posterior inadequado (densidade) não faz sentido do ponto de vista probabilístico / teórico. A razão para isso é que a função f não possui uma integral finita sobre o espaço do parâmetro e, consequentemente, não pode ser vinculada a um modelo de probabilidade ( medida finita) ( Ω , σ , P ) (espaço, álgebra sigma, medida de probabilidade )ff( Ω , σ, P )
Se você tem um modelo com um anterior inadequado que leva a um posterior inadequado, em muitos casos você ainda pode fazer uma amostra usando o MCMC, por exemplo, Metropolis-Hastings, e as "amostras posteriores" podem parecer razoáveis. Isso parece intrigante e paradoxal à primeira vista. No entanto, a razão para isso é que os métodos MCMC estão restritos a limitações numéricas dos computadores na prática e, portanto, todos os suportes são limitados (e discretos!) Para um computador. Então, sob essas restrições (limites e discrição), o posterior é realmente adequado na maioria dos casos.
Existe uma grande referência de Hobert e Casella que apresenta um exemplo (de natureza ligeiramente diferente) em que você pode construir um amostrador de Gibbs para um posterior, o posterior parece perfeitamente razoável, mas o posterior é impróprio!
http://www.jstor.org/stable/2291572
Um exemplo semelhante apareceu recentemente aqui . De fato, Hobert e Casella alertam o leitor que os métodos MCMC não podem ser usados para detectar impropriedades posteriores e que isso deve ser verificado separadamente antes de implementar qualquer método MCMC. Em suma:
- Alguns amostradores do MCMC, como Metropolis-Hastings, podem (mas não devem) ser usados para amostrar de um posterior inadequado, uma vez que o computador limita e reduz o espaço dos parâmetros. Somente se você tiver amostras enormes , poderá observar algumas coisas estranhas. A capacidade de detectar esses problemas também depende da distribuição "instrumental" empregada no seu amostrador. O último ponto requer uma discussão mais extensa, então prefiro deixá-lo aqui.
- (Hobert e Casella). O fato de você poder construir um amostrador de Gibbs (modelo condicional) para um modelo com um anterior inadequado não implica que o posterior (modelo conjunto) seja adequado.
- Uma interpretação probabilística formal das amostras posteriores requer a propriedade das posteriores. Os resultados e as provas de convergência são estabelecidos apenas para distribuições / medidas de probabilidade adequadas.
PS (um pouco na língua): nem sempre acredite no que as pessoas fazem no Machine Learning. Como o professor Brian Ripley disse: "o aprendizado de máquina é estatística menos qualquer verificação de modelos e suposições".