Qual é a conexão entre a cadeia de Markov e a cadeia de Markov monte carlo


15

Estou tentando entender as cadeias de Markov usando SAS. Entendo que um processo de Markov é aquele em que o estado futuro depende apenas do estado atual e não do estado passado e existe uma matriz de transição que captura a probabilidade de transição de um estado para outro.

Mas então me deparei com esse termo: cadeia de Markov Monte Carlo. O que eu quero saber é se a Cadeia de Markov Monte Carlo está de alguma forma relacionada ao processo de Markov que eu descrevi acima?

Respostas:


9

Bem, sim, existe uma relação entre os dois termos, porque os empates do MCMC formam uma cadeia de Markov. De Gelman, Bayesian Data Analysis (3a ed), p. 265:

A simulação da cadeia de Markov (também chamada Monte Carlo da cadeia de Markov ou MCMC) é um método geral baseado em desenhar valores de de distribuições apropriadas e, em seguida, corrigi-los para melhor aproximar a distribuição posterior alvo, p ( θ | y ) . A amostragem é feita seqüencialmente, com a distribuição dos sorteios amostrados, dependendo do último valor sorteado; portanto, os sorteios formam uma cadeia de Markov.θp(θ|y)


Umm ok, mas por que eu preciso para tirar amostras aleatórias formar um processo de Markov, há tantos outros tipos de processos como normal, Bernoulli, possion etc.
Victor

2
@ Victor Acho que você perdeu de vista o caso de uso do MCMC. Utilizamos o MCMC na estatística bayesiana quando não há forma analítica da distribuição posterior.
Sycorax diz Restabelecer Monica

3
A estatística bayesiana +1 é talvez a aplicação mais óbvia do MCMC (onde a distribuição alvo é uma articulação posterior), mas não a única possível.
Glen_b -Reinstate Monica

18

A conexão entre os dois conceitos é que os métodos Monte Carlo da cadeia de Markov (aka MCMC) confiam na teoria da cadeia de Markov para produzir simulações e aproximações de Monte Carlo a partir de uma distribuição alvo complexa .π

Na prática, esses métodos de simulação produzem uma sequência que é uma cadeia de Markov, ou seja, de tal forma que a distribuição de X i, considerando todo o passado { X i - 1 , , X 1 }, depende apenas de X i - 1 . Em outras palavras, X i = f ( X i - 1 , ϵ i ) onde fX1,...,XNXEu{XEu-1,...,X1}XEu-1

XEu=f(XEu-1,ϵEu)
fé uma função especificada pelo algoritmo e a distribuição alvo e os ε i 's são iid. As garantias teoria (ergodic) que X i converge (na distribuição) para pi como i chega a .πϵEuXEuπEu

O exemplo mais fácil de um algoritmo MCMC é o amostrador de fatia : na iteração i deste algoritmo, faça

  1. simular ϵEu1você(0 0,1)
  2. XEuvocê({x;π(x)ϵEu1π(XEu-1)})ϵEu2

N(0 0,1)

  1. simular ϵ 1 i ∼ U ( 0 , 1 ϵEu1você(0 0,1)
  2. XEuvocê({x;x2-2registro(2πϵEu1})XEu=±ϵEu2{-2registro(2πϵEu1)φ(XEu-1)}1/2ϵEu2você(0 0,1)

ou em R

T=1e4
x=y=runif(T) #random initial value
for (t in 2:T){
  epsilon=runif(2)#uniform white noise 
  y[t]=epsilon[1]*dnorm(x[t-1])#vertical move       
  x[t]=sample(c(-1,1),1)*epsilon[2]*sqrt(-2*#Markov move from
        log(sqrt(2*pi)*y[t]))}#x[t-1] to x[t]

N(0 0,1)(XEu)topo: Histograma de 10⁴ iterações do amostrador de fatia e ajuste normal de N (0,1);  bottom: sequência $ (X_i) $

(XEu,ϵEu1π(XEu))

curve(dnorm,-3,3,lwd=2,col="sienna",ylab="")
for (t in (T-100):T){
lines(rep(x[t-1],2),c(y[t-1],y[t]),col="steelblue");
lines(x[(t-1):t],rep(y[t],2),col="steelblue")}

que segue movimentos verticais e horizontais da cadeia de Markov sob a curva de densidade alvo.100 últimos movimentos do amostrador de fatias

Ao utilizar nosso site, você reconhece que leu e compreendeu nossa Política de Cookies e nossa Política de Privacidade.
Licensed under cc by-sa 3.0 with attribution required.