Perguntas com a marcação «posterior»

Refere-se à distribuição de probabilidade dos parâmetros condicionados aos dados nas estatísticas bayesianas.

2
Ao aproximar um posterior usando o MCMC, por que não salvamos as probabilidades posteriores, mas usamos as frequências do valor do parâmetro posteriormente?
Atualmente, estou estimando parâmetros de um modelo definido por várias equações diferenciais ordinárias (ODEs). Eu tento isso com uma abordagem bayesiana aproximando a distribuição posterior dos parâmetros dados alguns dados usando a cadeia de Markov Monte Carlo (MCMC). Um amostrador MCMC gera uma cadeia de valores de parâmetros em que …



1
Derivando a densidade posterior para uma probabilidade lognormal e prévia de Jeffreys
A função de probabilidade de uma distribuição lognormal é: f(x;μ,σ)∝∏ni11σxiexp(−(lnxi−μ)22σ2)f(x;μ,σ)∝∏i1n1σxiexp⁡(−(ln⁡xi−μ)22σ2)f(x; \mu, \sigma) \propto \prod_{i_1}^n \frac{1}{\sigma x_i} \exp \left ( - \frac{(\ln{x_i} - \mu)^2}{2 \sigma^2} \right ) e o Prior de Jeffreys é: p(μ,σ)∝1σ2p(μ,σ)∝1σ2p(\mu,\sigma) \propto \frac{1}{\sigma^2} então, combinar os dois dá: f(μ,σ2|x)=∏ni11σxiexp(−(lnxi−μ)22σ2)⋅σ−2f(μ,σ2|x)=∏i1n1σxiexp⁡(−(ln⁡xi−μ)22σ2)⋅σ−2f(\mu,\sigma^2|x)= \prod_{i_1}^n \frac{1}{\sigma x_i} \exp \left ( - \frac{(\ln{x_i} - …



2
Por que um modelo estatístico superajustaria se recebesse um grande conjunto de dados?
Meu projeto atual pode exigir que eu construa um modelo para prever o comportamento de um determinado grupo de pessoas. o conjunto de dados de treinamento contém apenas 6 variáveis ​​(id é apenas para fins de identificação): id, age, income, gender, job category, monthly spend em que monthly spendé a …
8 modeling  large-data  overfitting  clustering  algorithms  error  spatial  r  regression  predictive-models  linear-model  average  measurement-error  weighted-mean  error-propagation  python  standard-error  weighted-regression  hypothesis-testing  time-series  machine-learning  self-study  arima  regression  correlation  anova  statistical-significance  excel  r  regression  distributions  statistical-significance  contingency-tables  regression  optimization  measurement-error  loss-functions  image-processing  java  panel-data  probability  conditional-probability  r  lme4-nlme  model-comparison  time-series  probability  probability  conditional-probability  logistic  multiple-regression  model-selection  r  regression  model-based-clustering  svm  feature-selection  feature-construction  time-series  forecasting  stationarity  r  distributions  bootstrap  r  distributions  estimation  maximum-likelihood  garch  references  probability  conditional-probability  regression  logistic  regression-coefficients  model-comparison  confidence-interval  r  regression  r  generalized-linear-model  outliers  robust  regression  classification  categorical-data  r  association-rules  machine-learning  distributions  posterior  likelihood  r  hypothesis-testing  normality-assumption  missing-data  convergence  expectation-maximization  regression  self-study  categorical-data  regression  simulation  regression  self-study  self-study  gamma-distribution  modeling  microarray  synthetic-data 


2
Cálculo da probabilidade quando
Estou tentando calcular esta distribuição posterior: ( θ | - ) = ∏ni = 1pyEuEu( 1 - pEu)1 - yEu∑todosθ , pEu| θ∏ni = 1pyEuEu( 1 - pEu)1 - yEu(θ|-)=∏Eu=1npEuyEu(1-pEu)1-yEu∑todosθ,pEu|θ∏Eu=1npEuyEu(1-pEu)1-yEu (\theta|-)=\frac{\prod_{i=1}^{n}p_i^{y_i}(1-p_i)^{1-y_i}}{\sum_{\text{all}\,\theta,p_i|\theta}\prod_{i=1}^{n}p_i^{y_i}(1-p_i)^{1-y_i}} O problema é que o numerador, que é o produto de um monte de probabilidades é muito pequeno. (Meu …

3
verificar um posterior é adequado
Há um problema de lição de casa em um livro que pede para verificar a propriedade de uma certa distribuição posterior, e estou tendo um pequeno problema com isso. A configuração é que você tem um modelo de regressão logística com um preditor e um uniforme inadequado antes de .R2R2\mathbb{R}^2 …

2
Por que a codificação do tratamento resulta em uma correlação entre inclinação aleatória e interceptação?
Considere um planejamento fatorial dentro do sujeito e dentro do item, onde a variável de tratamento experimental possui dois níveis (condições). Seja m1o modelo máximo e m2o modelo sem correlações aleatórias. m1: y ~ condition + (condition|subject) + (condition|item) m2: y ~ condition + (1|subject) + (0 + condition|subject) + …

2
Distribuição preditiva posterior vs estimativa da PAM
Considere um conjunto de dados de treinamento XXX, um modelo probabilístico parametrizado por θθ\thetae uma prévia P( θ )P(θ)P(\theta). Para um novo ponto de dadosx∗x∗x^*, podemos calcular P(x∗)P(x∗)P(x^*) usando: uma abordagem totalmente bayesiana: a distribuição preditiva posterior P(x∗| X) = ∫P( θ | X) P(x∗| θ)dθP(x∗|X)=∫P(θ|X)P(x∗|θ)dθP(x^* | X) = \int …
Ao utilizar nosso site, você reconhece que leu e compreendeu nossa Política de Cookies e nossa Política de Privacidade.
Licensed under cc by-sa 3.0 with attribution required.