Perguntas com a marcação «bayesian»

A inferência bayesiana é um método de inferência estatística que se baseia no tratamento dos parâmetros do modelo como variáveis ​​aleatórias e na aplicação do teorema de Bayes para deduzir declarações subjetivas de probabilidade sobre os parâmetros ou hipóteses, condicionadas ao conjunto de dados observado.


3
Estimando o parâmetro de uma distribuição uniforme: inadequado antes?
Temos N amostras, , de uma distribuição uniforme onde é desconhecida. Estime partir dos dados. [ 0 , θ ] θ θXiXiX_i[0,θ][0,θ][0,\theta]θθ\thetaθθ\theta Então, o governo de Bayes ... f(θ|Xi)=f(Xi|θ)f(θ)f(Xi)f(θ|Xi)=f(Xi|θ)f(θ)f(Xi)f(\theta | {X_i}) = \frac{f({X_i}|\theta)f(\theta)}{f({X_i})} e a probabilidade é: f(Xi|θ)=∏Ni=11θf(Xi|θ)=∏i=1N1θf({X_i}|\theta) = \prod_{i=1}^N \frac{1}{\theta} (editar: quando para todos os e 0 caso contrário …

3
Exercício 2.2 dos Elementos da Aprendizagem Estatística
O livro de texto primeiro gera alguns dados de 2 classes via: que dá: e então pergunta: Eu tento resolver isso primeiro modelando isso com este modelo gráfico: onde ccc é o rótulo, h(1≤h≤10)h(1≤h≤10)h\,(1\le h \le 10) é o índice da média selecionadamchmhcm_h^c , exxx é o ponto de dados. …


4
Modelo de Histórico de Eventos em Tempo Discreto (Sobrevivência) em R
Estou tentando ajustar um modelo de tempo discreto no R, mas não sei como fazê-lo. Eu li que você pode organizar a variável dependente em linhas diferentes, uma para cada observação no tempo, e usar a glmfunção com um link logit ou cloglog. Neste sentido, tem três colunas: ID, Event(1 …
10 r  survival  pca  sas  matlab  neural-networks  r  logistic  spatial  spatial-interaction-model  r  time-series  econometrics  var  statistical-significance  t-test  cross-validation  sample-size  r  regression  optimization  least-squares  constrained-regression  nonparametric  ordinal-data  wilcoxon-signed-rank  references  neural-networks  jags  bugs  hierarchical-bayesian  gaussian-mixture  r  regression  svm  predictive-models  libsvm  scikit-learn  probability  self-study  stata  sample-size  spss  wilcoxon-mann-whitney  survey  ordinal-data  likert  group-differences  r  regression  anova  mathematical-statistics  normal-distribution  random-generation  truncation  repeated-measures  variance  variability  distributions  random-generation  uniform  regression  r  generalized-linear-model  goodness-of-fit  data-visualization  r  time-series  arima  autoregressive  confidence-interval  r  time-series  arima  autocorrelation  seasonality  hypothesis-testing  bayesian  frequentist  uninformative-prior  correlation  matlab  cross-correlation 




1
Variável categórica de regressão linear R valor "oculto"
Este é apenas um exemplo que encontrei várias vezes, portanto não tenho dados de amostra. Executando um modelo de regressão linear em R: a.lm = lm(Y ~ x1 + x2) x1é uma variável contínua. x2é categórico e possui três valores, por exemplo, "Baixo", "Médio" e "Alto". No entanto, a saída …
10 r  regression  categorical-data  regression-coefficients  categorical-encoding  machine-learning  random-forest  anova  spss  r  self-study  bootstrap  monte-carlo  r  multiple-regression  partitioning  neural-networks  normalization  machine-learning  svm  kernel-trick  self-study  survival  cox-model  repeated-measures  survey  likert  correlation  variance  sampling  meta-analysis  anova  independence  sample  assumptions  bayesian  covariance  r  regression  time-series  mathematical-statistics  graphical-model  machine-learning  linear-model  kernel-trick  linear-algebra  self-study  moments  function  correlation  spss  probability  confidence-interval  sampling  mean  population  r  generalized-linear-model  prediction  offset  data-visualization  clustering  sas  cart  binning  sas  logistic  causality  regression  self-study  standard-error  r  distributions  r  regression  time-series  multiple-regression  python  chi-squared  independence  sample  clustering  data-mining  rapidminer  probability  stochastic-processes  clustering  binary-data  dimensionality-reduction  svd  correspondence-analysis  data-visualization  excel  c#  hypothesis-testing  econometrics  survey  rating  composite  regression  least-squares  mcmc  markov-process  kullback-leibler  convergence  predictive-models  r  regression  anova  confidence-interval  survival  cox-model  hazard  normal-distribution  autoregressive  mixed-model  r  mixed-model  sas  hypothesis-testing  mediation  interaction 

4
Dada uma cadeia 10D MCMC, como posso determinar seus modos posteriores em R?
Pergunta: Com uma cadeia MCMC de 10 dimensões, digamos que estou preparado para entregar uma matriz dos sorteios: 100.000 iterações (linhas) por 10 parâmetros (colunas), qual a melhor forma de identificar os modos posteriores? Estou especialmente preocupado com vários modos. Fundo:Eu me considero um estatístico computacionalmente experiente, mas quando um …

1
O que é programação probabilística?
No ano passado, tenho ouvido muito sobre estruturas de Programação Probabilística (PP), como PyMC3 e Stan , e quão bom é o PP. E hoje, alguém compartilhou este link comigo: Pyro: uma linguagem de programação probabilística profunda No entanto, eu realmente não sigo o que há de especial, pois parece …

1
Quando a normalidade assintótica do posterior bayesiano (Bernstein-von Mises) falha?
Considere a função de densidade posterior dada (como de costume) por com densidade anterior e distribuição do observações , condicionais no valor do parâmetro .π(θ)∏i=1nf(xi;θ),π(θ)∏i=1nf(xi;θ), \pi(\theta) \prod_{i=1}^n f(x_i;\theta),ππ\pif(⋅;θ)f(⋅;θ)f(\cdot;\theta)nnnx1,…,xnx1,…,xnx_1, \dots, x_nθθ\theta Sob certas condições, a distribuição posterior é assintoticamente normal (um resultado conhecido como teorema de Bernstein-von Mises, veja egvd Vaart, …

1
Por que o posterior bayesiano se concentra em torno do minimizador da divergência de KL?
Considere o Bayesian posterior . Assintoticamente, seu máximo ocorre na estimativa MLE , que apenas maximiza a probabilidade .θ∣Xθ∣X\theta\mid Xθ^θ^\hat \thetaargminθfθ(X)argminθfθ(X)\operatorname{argmin}_\theta\, f_\theta(X) Todos esses conceitos - priores Bayesianos, maximizando a probabilidade - parecem superprincípios e nada arbitrários. Não há um log à vista. No entanto MLE minimiza a divergência KL …



Ao utilizar nosso site, você reconhece que leu e compreendeu nossa Política de Cookies e nossa Política de Privacidade.
Licensed under cc by-sa 3.0 with attribution required.