Quando você recebe um e uma probabilidade que não são computáveis na forma fechada ou que a distribuição posterior não é de um tipo padrão, não é possível simular diretamente desse alvo em direção a uma aproximação de Monte Carlo da distribuição posterior. Um exemplo típico é feito de modelos hierárquicos com anteriores não conjugados, como os encontrados no livro BUGS .f ( x | θ ) p ( θ | x ) ∝ p ( θ ) f ( x | θ )p(θ)f(x|θ)
p(θ|x)∝p(θ)f(x|θ)
Os métodos de simulação indireta, como as técnicas de aceitação-rejeição, proporção de uniforme ou amostragem de importância, costumam ter dificuldades numéricas e de precisão quando a dimensão do parâmetro aumenta além de algumas unidades.θ
Pelo contrário, os métodos de Monte Carlo da cadeia de Markov são mais adaptáveis a grandes dimensões, pois podem explorar a distribuição posterior localmente, ou seja, em uma vizinhança do valor atual e em um número menor de componentes, ou seja, em subespaços. Por exemplo, o amostrador Gibbs valida a noção de que simular a partir de um alvo unidimensional por vez, ou seja, as distribuições condicionais completas associadas a , é suficiente para obter a simulação do verdadeiro posterior a longo prazo.p(θ|x)
Os métodos Monte Carlo da cadeia de Markov também têm um certo grau de universalidade, pois algoritmos como o algoritmo Metropolis-Hastings estão formalmente disponíveis para qualquer distribuição posterior que pode ser calculada até uma constante.p(θ|x)
Nos casos em que não pode ser facilmente calculado, existem alternativas, completando essa distribuição em uma distribuição gerenciável em um espaço maior, como em ou através de métodos não-markovianos como ABC .p(θ)f(x|θ)
p(θ)f(x|θ)∝∫g(z|θ,x)p(θ)f(x|θ)dz
Os métodos MCMC deram um alcance muito mais amplo aos métodos bayesianos, como ilustrado pelo aumento que se seguiu à popularização do método por Alan Gelfand e Adrian Smith em 1990.