Perguntas com a marcação «gibbs»

O amostrador de Gibbs é uma forma simples de simulação de Markov Chain Monte Carlo, amplamente usada em estatísticas Bayesianas, com base na amostragem de distribuições condicionais completas para cada variável ou grupo de variáveis. O nome vem do método usado pela primeira vez na modelagem de imagens de campos aleatórios de Gibbs por Geman e Geman (1984).

4
OpenBugs vs. JAGS
Estou prestes a experimentar um ambiente de estilo BUGS para estimar modelos bayesianos. Existem vantagens importantes a serem consideradas na escolha entre OpenBugs ou JAGS? É provável que um substitua o outro em um futuro próximo? Usarei o Gibbs Sampler escolhido com R. Ainda não tenho uma aplicação específica, mas …
41 r  software  bugs  jags  gibbs 

1
Qual é a diferença entre as amostragens de Metropolis Hastings, Gibbs, Importance e Rejection?
Eu tenho tentado aprender métodos do MCMC e me deparei com amostragens de Metropolis Hastings, Gibbs, Importance e Rejection. Embora algumas dessas diferenças sejam óbvias, ou seja, como Gibbs é um caso especial de Metropolis Hastings quando temos todos os condicionais, outras são menos óbvias, como quando queremos usar MH …

3
Um bom exemplo de tutoriais e referências de Gibbs
Quero aprender como a Gibbs Sampling funciona e estou procurando um bom papel básico a intermediário. Tenho formação em ciência da computação e conhecimentos básicos de estatística. Alguém já leu um bom material? onde você aprendeu isso? obrigado
29 references  gibbs 

1
Quais são algumas melhorias bem conhecidas sobre os algoritmos MCMC de livros didáticos que as pessoas usam para inferência bayesiana?
Quando estou codificando uma simulação de Monte Carlo para algum problema, e o modelo é bastante simples, utilizo uma amostra básica de Gibbs do livro didático. Quando não é possível usar a amostra de Gibbs, codifico o livro Metropolis-Hastings que aprendi anos atrás. O único pensamento que dou é escolher …

2
Amostragem de Gibbs versus MH-MCMC geral
Acabei de ler sobre a amostragem de Gibbs e o algoritmo Metropolis Hastings e tenho algumas perguntas. Pelo que entendi, no caso da amostragem de Gibbs, se tivermos um grande problema multivariado, coletamos amostras da distribuição condicional, ou seja, amostramos uma variável enquanto mantemos todas as outras fixas, enquanto no …


1
O algoritmo de Gibbs Sampling garante equilíbrio detalhado?
Tenho como autoridade suprema 1 que Gibbs Sampling é um caso especial do algoritmo Metropolis-Hastings para amostragem de Markov Chain Monte Carlo. O algoritmo MH sempre fornece uma probabilidade de transição com a propriedade detalhada do balanço; Espero que Gibbs também deva. Então, onde, no seguinte caso simples, errei? Para …
17 mcmc  gibbs 

1
Stan
Eu estava revisando a documentação do Stan, que pode ser baixada aqui . Eu estava particularmente interessado na implementação do diagnóstico Gelman-Rubin. O artigo original Gelman & Rubin (1992) define o potencial fator de redução de escala (PSRF) da seguinte maneira: Deixe que Xi,1,…,Xi,NXi,1,…,Xi,NX_{i,1}, \dots , X_{i,N} ser o iii …

2
De onde vêm os condicionais completos na amostragem de Gibbs?
Algoritmos MCMC como Metropolis-Hastings e Gibbs são formas de amostragem das distribuições posteriores da articulação. Eu acho que entendo e posso implementar as pessoas que vivem nas metrópoles com bastante facilidade - você simplesmente escolhe os pontos de partida de alguma forma e 'percorre o espaço dos parâmetros' aleatoriamente, guiado …
15 bayesian  mcmc  gibbs 

1
Probabilidade marginal da produção de Gibbs
Estou reproduzindo do zero os resultados na Seção 4.2.1 de Probabilidade marginal da produção de Gibbs Siddhartha Chib Jornal da Associação Estatística Americana, vol. 90, No. 432. (Dec., 1995), pp. 1313-1321. É uma mistura de modelos normais com o número conhecido de componentes. k ≥ 1k≥1k\geq 1f( x ∣ w …

1
Por que a parametrização média redundante acelera o Gibbs MCMC?
No livro de Gelman & Hill (2007) (Análise de dados usando regressão e modelos multiníveis / hierárquicos), os autores afirmam que a inclusão de parâmetros médios redundantes pode ajudar a acelerar o MCMC. O exemplo dado é um modelo não aninhado de "simulador de vôo" (Eq 13.9): yiγjδk∼N(μ+γj[i]+δk[i],σ2y)∼N(0,σ2γ)∼N(0,σ2δ)yi∼N(μ+γj[i]+δk[i],σy2)γj∼N(0,σγ2)δk∼N(0,σδ2) \begin{align} y_i …

2
A amostragem de Gibbs é um método MCMC?
Tanto quanto eu entendo, é (pelo menos, é assim que a Wikipedia o define ). Mas encontrei esta declaração de Efron * (ênfase adicionada): A cadeia de Markov Monte Carlo (MCMC) é a grande história de sucesso das estatísticas bayesianas da atualidade. O MCMC e seu método irmão "amostragem de …
11 mcmc  gibbs 


1
Como derivar a amostragem de Gibbs?
Na verdade, estou hesitando em perguntar isso, porque temo ser encaminhado para outras perguntas ou para a Wikipedia sobre amostras de Gibbs, mas não tenho a sensação de que eles descrevam o que está em mãos. Dada uma probabilidade condicional : p ( x | y ) y = y …
11 sampling  mcmc  gibbs 

1
Modelagem bayesiana usando normal multivariada com covariável
Suponha que você tenha uma variável explicativa que representa uma determinada coordenada. Você também tem uma variável de resposta . Agora, podemos combinar as duas variáveis ​​como:X=(X(s1),…,X(sn))X=(X(s1),…,X(sn)){\bf{X}} = \left(X(s_{1}),\ldots,X(s_{n})\right)sssY=(Y(s1),…,Y(sn))Y=(Y(s1),…,Y(sn)){\bf{Y}} = \left(Y(s_{1}),\ldots,Y(s_{n})\right) W(s)=(X(s)Y(s))∼N(μ(s),T)W(s)=(X(s)Y(s))∼N(μ(s),T){\bf{W}}({\bf{s}}) = \left( \begin{array}{ccc}X(s) \\ Y(s) \end{array} \right) \sim N(\boldsymbol{\mu}(s), T) Nesse caso, simplesmente escolhemos μ(s)=(μ1μ2)Tμ(s)=(μ1μ2)T\boldsymbol{\mu}(s) = \left( \mu_{1} …

Ao utilizar nosso site, você reconhece que leu e compreendeu nossa Política de Cookies e nossa Política de Privacidade.
Licensed under cc by-sa 3.0 with attribution required.