Perguntas com a marcação «mcmc»

Cadeia de Markov Monte Carlo (MCMC) refere-se a uma classe de métodos para gerar amostras a partir de uma distribuição alvo, gerando números aleatórios a partir de uma Cadeia de Markov cuja distribuição estacionária é a distribuição alvo. Os métodos MCMC são normalmente usados ​​quando métodos mais diretos para geração de números aleatórios (por exemplo, método de inversão) são inviáveis. O primeiro método MCMC foi o algoritmo Metropolis, posteriormente modificado para o algoritmo Metropolis-Hastings.

2
Calcular curva ROC para dados
Portanto, tenho 16 ensaios em que estou tentando autenticar uma pessoa de uma característica biométrica usando a Distância de Hamming. Meu limite está definido como 3,5. Meus dados estão abaixo e apenas o teste 1 é um verdadeiro positivo: Trial Hamming Distance 1 0.34 2 0.37 3 0.34 4 0.29 …
9 mathematical-statistics  roc  classification  cross-validation  pac-learning  r  anova  survival  hazard  machine-learning  data-mining  hypothesis-testing  regression  random-variable  non-independent  normal-distribution  approximation  central-limit-theorem  interpolation  splines  distributions  kernel-smoothing  r  data-visualization  ggplot2  distributions  binomial  random-variable  poisson-distribution  simulation  kalman-filter  regression  lasso  regularization  lme4-nlme  model-selection  aic  r  mcmc  dlm  particle-filter  r  panel-data  multilevel-analysis  model-selection  entropy  graphical-model  r  distributions  quantiles  qq-plot  svm  matlab  regression  lasso  regularization  entropy  inference  r  distributions  dataset  algorithms  matrix-decomposition  regression  modeling  interaction  regularization  expected-value  exponential  gamma-distribution  mcmc  gibbs  probability  self-study  normality-assumption  naive-bayes  bayes-optimal-classifier  standard-deviation  classification  optimization  control-chart  engineering-statistics  regression  lasso  regularization  regression  references  lasso  regularization  elastic-net  r  distributions  aggregation  clustering  algorithms  regression  correlation  modeling  distributions  time-series  standard-deviation  goodness-of-fit  hypothesis-testing  statistical-significance  sample  binary-data  estimation  random-variable  interpolation  distributions  probability  chi-squared  predictor  outliers  regression  modeling  interaction 

2
Rao-Blackwellization de Gibbs Sampler
Atualmente, estou estimando um modelo de volatilidade estocástica com os métodos Monte Carlo da Cadeia de Markov. Assim, estou implementando os métodos de amostragem de Gibbs e Metropolis. Supondo que eu considere a média da distribuição posterior, e não uma amostra aleatória, é isso que é comumente chamado de Rao-Blackwellization …



3
MCMC para lidar com problemas de probabilidade plana
Eu tenho uma probabilidade bastante plana de levar o amostrador Metropolis-Hastings a se mover pelo espaço de parâmetros de maneira muito irregular, ou seja, nenhuma convergência pode ser alcançada, independentemente dos parâmetros de distribuição da proposta (no meu caso, é gaussiano). Não há alta complexidade no meu modelo - apenas …

2
Taxa de aceitação no algoritmo Metropolis – Hastings
No algoritmo Metropolis – Hastings para amostragem de uma distribuição de destino, deixe: πEuπEu\pi_{i} seja a densidade alvo no estadoEuEui , πjπj\pi_j é a densidade alvo no estado propostojjj , heu jhEujh_{ij} é a densidade proposta para a transição para o estadojjj dado o estado atualEuEui , umaeu jumaEuja_{ij} é …


2
Programação probabilística vs ML “tradicional”
Eu estava navegando no repositório do Github para o Pymc e encontrei este notebook: Inferência Variacional: Redes Neurais Bayesianas O autor exalta as virtudes da programação bayesiana / probabilística, mas continua dizendo: Infelizmente, quando se trata de problemas tradicionais de ML, como classificação ou regressão (não linear), a Programação Probabilística …





2
Ao aproximar um posterior usando o MCMC, por que não salvamos as probabilidades posteriores, mas usamos as frequências do valor do parâmetro posteriormente?
Atualmente, estou estimando parâmetros de um modelo definido por várias equações diferenciais ordinárias (ODEs). Eu tento isso com uma abordagem bayesiana aproximando a distribuição posterior dos parâmetros dados alguns dados usando a cadeia de Markov Monte Carlo (MCMC). Um amostrador MCMC gera uma cadeia de valores de parâmetros em que …


1
Rastreio de probabilidade estranha da cadeia MCMC
Eu tenho um modelo que vai: Single parameter -> Complex likelihood function -> Log-likelihood. Executei uma cadeia MCMC (usando o pymc) e plotei o rastreamento do parâmetro e a probabilidade de log. A estimativa de parâmetros acabou sendo razoável, mas o gráfico de probabilidade de log parece estranho para mim. …

Ao utilizar nosso site, você reconhece que leu e compreendeu nossa Política de Cookies e nossa Política de Privacidade.
Licensed under cc by-sa 3.0 with attribution required.