Perguntas com a marcação «gibbs»

O amostrador de Gibbs é uma forma simples de simulação de Markov Chain Monte Carlo, amplamente usada em estatísticas Bayesianas, com base na amostragem de distribuições condicionais completas para cada variável ou grupo de variáveis. O nome vem do método usado pela primeira vez na modelagem de imagens de campos aleatórios de Gibbs por Geman e Geman (1984).

1
Amostragem de Gibbs para o modelo Ising
Pergunta de lição de casa: Considere o modelo Ising 1-d. Vamos . x i é -1 ou +1x = ( x1, . . . xd)x=(x1,...xd)x = (x_1,...x_d)xEuxix_i π( X ) α e∑39.i = 1xEuxi + 1π(x)∝e∑i=139xixi+1\pi(x) \propto e^{\sum_{i=1}^{39}x_ix_{i+1}} Crie um algoritmo de amostragem de gibbs para gerar amostras aproximadamente a …


2
Confusão relacionada à amostragem de Gibbs
Encontrei este artigo em que diz que na amostra de Gibbs todas as amostras são aceitas. Eu estou um pouco confuso. Como é que, se toda amostra que ela aceita, converge para uma distribuição estacionária? Em geral, o algoritmo de metrópole é aceito como min (1, p (x *) / …

2
Calcular curva ROC para dados
Portanto, tenho 16 ensaios em que estou tentando autenticar uma pessoa de uma característica biométrica usando a Distância de Hamming. Meu limite está definido como 3,5. Meus dados estão abaixo e apenas o teste 1 é um verdadeiro positivo: Trial Hamming Distance 1 0.34 2 0.37 3 0.34 4 0.29 …
9 mathematical-statistics  roc  classification  cross-validation  pac-learning  r  anova  survival  hazard  machine-learning  data-mining  hypothesis-testing  regression  random-variable  non-independent  normal-distribution  approximation  central-limit-theorem  interpolation  splines  distributions  kernel-smoothing  r  data-visualization  ggplot2  distributions  binomial  random-variable  poisson-distribution  simulation  kalman-filter  regression  lasso  regularization  lme4-nlme  model-selection  aic  r  mcmc  dlm  particle-filter  r  panel-data  multilevel-analysis  model-selection  entropy  graphical-model  r  distributions  quantiles  qq-plot  svm  matlab  regression  lasso  regularization  entropy  inference  r  distributions  dataset  algorithms  matrix-decomposition  regression  modeling  interaction  regularization  expected-value  exponential  gamma-distribution  mcmc  gibbs  probability  self-study  normality-assumption  naive-bayes  bayes-optimal-classifier  standard-deviation  classification  optimization  control-chart  engineering-statistics  regression  lasso  regularization  regression  references  lasso  regularization  elastic-net  r  distributions  aggregation  clustering  algorithms  regression  correlation  modeling  distributions  time-series  standard-deviation  goodness-of-fit  hypothesis-testing  statistical-significance  sample  binary-data  estimation  random-variable  interpolation  distributions  probability  chi-squared  predictor  outliers  regression  modeling  interaction 

2
Rao-Blackwellization de Gibbs Sampler
Atualmente, estou estimando um modelo de volatilidade estocástica com os métodos Monte Carlo da Cadeia de Markov. Assim, estou implementando os métodos de amostragem de Gibbs e Metropolis. Supondo que eu considere a média da distribuição posterior, e não uma amostra aleatória, é isso que é comumente chamado de Rao-Blackwellization …


1
Qual é a maneira correta de escrever a rede elástica?
Estou confuso sobre a maneira correta de escrever a rede elástica. Depois de ler alguns trabalhos de pesquisa, parece haver três formas 1)exp{ - λ1| βk| - λ2β2k}exp⁡{-λ1|βk|-λ2βk2}\exp\{-\lambda_1|\beta_k|-\lambda_2\beta_k^2\} 2)exp{ - ( λ1| βk| + λ2β2k)σ2√}exp⁡{-(λ1|βk|+λ2βk2)σ2}\exp\{-\frac{(\lambda_1|\beta_k|+\lambda_2\beta_k^2)}{\sqrt{\sigma^2}}\} 3)exp{ - ( λ1| βk| + λ2β2k)2 σ2}exp⁡{-(λ1|βk|+λ2βk2)2σ2}\exp\{-\frac{(\lambda_1|\beta_k|+\lambda_2\beta_k^2)}{2\sigma^2}\} Eu simplesmente não entendo a maneira correta …


1
Kernel de transição Gibbs Sampler
Seja a distribuição de destino em que é absolutamente continuamente escrita na medida de Lebesgue dimensional, ou seja:ππ\pi(Rd,B(Rd))(Rd,B(Rd))(\mathbb{R}^d,\mathcal{B}(\mathbb{R^d}))ddd ππ\pi admite uma densidade em com π(x1,...,xd)π(x1,...,xd)\pi(x_1,...,x_d)λdλd\lambda^dλd(dx1,...,dxd)=λ(dx1)⋅⋅⋅λ(dxd)λd(dx1,...,dxd)=λ(dx1)⋅⋅⋅λ(dxd)\lambda^d(dx_1,...,dx_d) = \lambda(dx_1) \cdot \cdot \cdot \lambda (dx_d) Vamos supor que os condicionais completos de sejam conhecidos. Portanto, o núcleo de transição do Gibbs-Sampler é claramente …

Ao utilizar nosso site, você reconhece que leu e compreendeu nossa Política de Cookies e nossa Política de Privacidade.
Licensed under cc by-sa 3.0 with attribution required.