Perguntas com a marcação «conjugate-prior»

Uma distribuição a priori na estatística bayesiana que é tal que, quando combinada com a verossimilhança, a posterior resultante é da mesma família de distribuições.











1
Qual modelo de aprendizagem profunda pode classificar categorias que não são mutuamente exclusivas
Exemplos: Eu tenho uma frase na descrição do trabalho: "Java senior engineer in UK". Eu quero usar um modelo de aprendizado profundo para prever em duas categorias: English e IT jobs. Se eu usar o modelo de classificação tradicional, ele poderá prever apenas 1 rótulo com softmaxfunção na última camada. …
9 machine-learning  deep-learning  natural-language  tensorflow  sampling  distance  non-independent  application  regression  machine-learning  logistic  mixed-model  control-group  crossover  r  multivariate-analysis  ecology  procrustes-analysis  vegan  regression  hypothesis-testing  interpretation  chi-squared  bootstrap  r  bioinformatics  bayesian  exponential  beta-distribution  bernoulli-distribution  conjugate-prior  distributions  bayesian  prior  beta-distribution  covariance  naive-bayes  smoothing  laplace-smoothing  distributions  data-visualization  regression  probit  penalized  estimation  unbiased-estimator  fisher-information  unbalanced-classes  bayesian  model-selection  aic  multiple-regression  cross-validation  regression-coefficients  nonlinear-regression  standardization  naive-bayes  trend  machine-learning  clustering  unsupervised-learning  wilcoxon-mann-whitney  z-score  econometrics  generalized-moments  method-of-moments  machine-learning  conv-neural-network  image-processing  ocr  machine-learning  neural-networks  conv-neural-network  tensorflow  r  logistic  scoring-rules  probability  self-study  pdf  cdf  classification  svm  resampling  forecasting  rms  volatility-forecasting  diebold-mariano  neural-networks  prediction-interval  uncertainty 

3
Probabilidade gaussiana + qual anterior = marginal gaussiana?
Dada a probabilidade gaussiana de uma amostra como com sendo o espaço de parâmetro e , parametrizações arbitrárias do vetor médio e da matriz de covariância.yyyp(y|θ)=N(y;μ(θ),Σ(θ))p(y|θ)=N(y;μ(θ),Σ(θ))p(y|\theta) = \mathcal{N}(y;\mu(\theta),\Sigma(\theta))ΘΘ\Thetaμ(θ)μ(θ)\mu(\theta)Σ(θ)Σ(θ)\Sigma(\theta) É possível especificar uma densidade anterior e parametrização do vetor médio e a matriz de covariância modo que a probabilidade marginal é …


2
Por que as misturas de conjugados a priori são importantes?
Eu tenho uma pergunta sobre a mistura de conjugados anteriores. Aprendi e digo a mistura de conjugados anteriores algumas vezes quando estou aprendendo bayesiano. Estou me perguntando por que esse teorema é tão importante, como vamos aplicá-lo quando estivermos fazendo uma análise bayesiana. Para ser mais específico, um teorema de …

1
Derivando a densidade posterior para uma probabilidade lognormal e prévia de Jeffreys
A função de probabilidade de uma distribuição lognormal é: f(x;μ,σ)∝∏ni11σxiexp(−(lnxi−μ)22σ2)f(x;μ,σ)∝∏i1n1σxiexp⁡(−(ln⁡xi−μ)22σ2)f(x; \mu, \sigma) \propto \prod_{i_1}^n \frac{1}{\sigma x_i} \exp \left ( - \frac{(\ln{x_i} - \mu)^2}{2 \sigma^2} \right ) e o Prior de Jeffreys é: p(μ,σ)∝1σ2p(μ,σ)∝1σ2p(\mu,\sigma) \propto \frac{1}{\sigma^2} então, combinar os dois dá: f(μ,σ2|x)=∏ni11σxiexp(−(lnxi−μ)22σ2)⋅σ−2f(μ,σ2|x)=∏i1n1σxiexp⁡(−(ln⁡xi−μ)22σ2)⋅σ−2f(\mu,\sigma^2|x)= \prod_{i_1}^n \frac{1}{\sigma x_i} \exp \left ( - \frac{(\ln{x_i} - …

Ao utilizar nosso site, você reconhece que leu e compreendeu nossa Política de Cookies e nossa Política de Privacidade.
Licensed under cc by-sa 3.0 with attribution required.