Perguntas com a marcação «mcmc»

Cadeia de Markov Monte Carlo (MCMC) refere-se a uma classe de métodos para gerar amostras a partir de uma distribuição alvo, gerando números aleatórios a partir de uma Cadeia de Markov cuja distribuição estacionária é a distribuição alvo. Os métodos MCMC são normalmente usados ​​quando métodos mais diretos para geração de números aleatórios (por exemplo, método de inversão) são inviáveis. O primeiro método MCMC foi o algoritmo Metropolis, posteriormente modificado para o algoritmo Metropolis-Hastings.

1
Como otimizar a eficiência computacional ao ajustar um modelo complexo a um grande conjunto de dados repetidamente?
Estou tendo problemas de desempenho usando o MCMCglmmpacote no R para executar um modelo de efeitos mistos. O código fica assim: MC1<-MCMCglmm(bull~1,random=~school,data=dt,family="categorical" , prior=list(R=list(V=1,fix=1), G=list(G1=list(V=1, nu=0))) , slice=T, nitt=iter, ,burnin=burn, verbose=F) Existem cerca de 20.000 observações nos dados e elas estão agrupadas em cerca de 200 escolas. Soltei todas as …

2
MCMC convergindo para um único valor?
Estou tentando ajustar um modelo hierárquico usando jags e o pacote rjags. Minha variável de resultado é y, que é uma sequência de testes de bernoulli. Eu tenho 38 sujeitos humanos que estão realizando sob duas categorias: P e M. Com base em minha análise, todo falante tem uma probabilidade …

2
Métodos MCMC - queima de amostras?
Nos métodos MCMC , continuo lendo sobre o burn-intempo ou o número de amostras para "burn". O que é isso exatamente e por que é necessário? Atualizar: Depois que o MCMC se estabiliza, ele permanece estável? Como a noção de burn-intempo está relacionada à noção de tempo de mistura?
12 sampling  mcmc 

2
Um MCMC que cumpre o saldo detalhado produz uma distribuição estacionária?
Eu acho que entendo a equação da condição de equilíbrio detalhado, que afirma que, para probabilidade de transição e distribuição estacionária , uma Cadeia de Markov satisfaz um balanço detalhado seqqqππ\piq(x|y)π(y)=q(y|x)π(x),q(x|y)π(y)=q(y|x)π(x),q(x|y)\pi(y)=q(y|x)\pi(x), isso faz mais sentido para mim se eu o reafirmar como: q(x|y)q(y|x)=π(x)π(y).q(x|y)q(y|x)=π(x)π(y).\frac{q(x|y)}{q(y|x)}= \frac{\pi(x)}{\pi(y)}. Basicamente, a probabilidade de transição do …



2
Iniciante no PyMC: como realmente obter amostras do modelo ajustado
Estou tentando um modelo muito simples: encaixando um Normal onde suponho que conheço a precisão e só quero encontrar a média. O código abaixo parece se encaixar no Normal corretamente. Porém, após o ajuste, quero fazer uma amostra do modelo, ou seja, gerar novos dados semelhantes à minha datavariável. Eu …
12 mcmc  pymc 

2
Os parâmetros de máxima verossimilhança divergem das distribuições posteriores
Eu tenho uma função probabilidade para a probabilidade dos meus dados dado alguns parâmetros do modelo , o que eu gostaria de estimar. Assumindo anteriores planos nos parâmetros, a probabilidade é proporcional à probabilidade posterior. Eu uso um método MCMC para provar essa probabilidade.L (d| θ)eu(d|θ)\mathcal{L}(d | \theta)dddθ ∈ RNθ∈RN\theta …

2
A amostragem de Gibbs é um método MCMC?
Tanto quanto eu entendo, é (pelo menos, é assim que a Wikipedia o define ). Mas encontrei esta declaração de Efron * (ênfase adicionada): A cadeia de Markov Monte Carlo (MCMC) é a grande história de sucesso das estatísticas bayesianas da atualidade. O MCMC e seu método irmão "amostragem de …
11 mcmc  gibbs 

6
Referências básicas no MCMC for Statistics Bayesian
Estou procurando alguns artigos ou livros com exemplos práticos e teóricos sobre o MCMC básico para estatística bayesiana (com R). Eu nunca estudei sobre simulação, e é por isso que estou procurando informações "básicas". Você pode me dar algumas recomendações ou conselhos?


1
Como derivar a amostragem de Gibbs?
Na verdade, estou hesitando em perguntar isso, porque temo ser encaminhado para outras perguntas ou para a Wikipedia sobre amostras de Gibbs, mas não tenho a sensação de que eles descrevam o que está em mãos. Dada uma probabilidade condicional : p ( x | y ) y = y …
11 sampling  mcmc  gibbs 

1
Amostragem de Gibbs para o modelo Ising
Pergunta de lição de casa: Considere o modelo Ising 1-d. Vamos . x i é -1 ou +1x = ( x1, . . . xd)x=(x1,...xd)x = (x_1,...x_d)xEuxix_i π( X ) α e∑39.i = 1xEuxi + 1π(x)∝e∑i=139xixi+1\pi(x) \propto e^{\sum_{i=1}^{39}x_ix_{i+1}} Crie um algoritmo de amostragem de gibbs para gerar amostras aproximadamente a …


3
Estimando parâmetros de um modelo linear dinâmico
Desejo implementar (em R) o seguinte Modelo Linear Dinâmico Dinâmico simples, para o qual tenho 2 parâmetros variáveis ​​de tempo desconhecido (a variação do erro de observação e a variação do erro de estado ϵ 2 t ).ϵ1tϵt1\epsilon^1_tϵ2tϵt2\epsilon^2_t Ytθt + 1==θt+ ϵ1tθt+ ϵ2tYt=θt+ϵt1θt+1=θt+ϵt2 \begin{matrix} Y_t & = & \theta_t + …
11 r  mcmc  dlm  particle-filter 

Ao utilizar nosso site, você reconhece que leu e compreendeu nossa Política de Cookies e nossa Política de Privacidade.
Licensed under cc by-sa 3.0 with attribution required.