Perguntas com a marcação «bayesian»

A inferência bayesiana é um método de inferência estatística que se baseia no tratamento dos parâmetros do modelo como variáveis ​​aleatórias e na aplicação do teorema de Bayes para deduzir declarações subjetivas de probabilidade sobre os parâmetros ou hipóteses, condicionadas ao conjunto de dados observado.



3
Os hiperplanos classificam os dados de maneira ideal quando as entradas são condicionalmente independentes - Por quê?
No artigo chamado Aprendizagem Profunda e o Princípio do Gargalo de Informações, os autores declaram na seção II A) o seguinte: Neurônios únicos classificam apenas entradas linearmente separáveis, pois podem implementar apenas hiperplanos em seu espaço de entrada . Os hiperplanos podem classificar os dados de maneira ideal quando as …


1
Por que o intervalo credível bayesiano nessa regressão polinomial é enviesado, enquanto o intervalo de confiança está correto?
Considere o gráfico abaixo no qual simulei os dados da seguinte maneira. Observamos um resultado binário para o qual a verdadeira probabilidade de ser 1 é indicada pela linha preta. A relação funcional entre uma covariável e é 3 polinomial ordem com ligação logístico (por isso é não linear num …


1
Qual modelo de aprendizagem profunda pode classificar categorias que não são mutuamente exclusivas
Exemplos: Eu tenho uma frase na descrição do trabalho: "Java senior engineer in UK". Eu quero usar um modelo de aprendizado profundo para prever em duas categorias: English e IT jobs. Se eu usar o modelo de classificação tradicional, ele poderá prever apenas 1 rótulo com softmaxfunção na última camada. …
9 machine-learning  deep-learning  natural-language  tensorflow  sampling  distance  non-independent  application  regression  machine-learning  logistic  mixed-model  control-group  crossover  r  multivariate-analysis  ecology  procrustes-analysis  vegan  regression  hypothesis-testing  interpretation  chi-squared  bootstrap  r  bioinformatics  bayesian  exponential  beta-distribution  bernoulli-distribution  conjugate-prior  distributions  bayesian  prior  beta-distribution  covariance  naive-bayes  smoothing  laplace-smoothing  distributions  data-visualization  regression  probit  penalized  estimation  unbiased-estimator  fisher-information  unbalanced-classes  bayesian  model-selection  aic  multiple-regression  cross-validation  regression-coefficients  nonlinear-regression  standardization  naive-bayes  trend  machine-learning  clustering  unsupervised-learning  wilcoxon-mann-whitney  z-score  econometrics  generalized-moments  method-of-moments  machine-learning  conv-neural-network  image-processing  ocr  machine-learning  neural-networks  conv-neural-network  tensorflow  r  logistic  scoring-rules  probability  self-study  pdf  cdf  classification  svm  resampling  forecasting  rms  volatility-forecasting  diebold-mariano  neural-networks  prediction-interval  uncertainty 


1
Dúvidas sobre a derivação das equações de regressão de processo gaussiana em um artigo
Estou lendo esta pré-impressão do artigo e estou tendo dificuldades em seguir a derivação das equações para a regressão de processo gaussiana. Eles usam a configuração e notação de Rasmussen & Williams . Assim, o ruído aditivo, com média zero, estacionário e normalmente distribuído com variação é assumido:σ2noiseσnoise2\sigma^2_{noise} y=f(x)+ϵ,ϵ∼N(0,σ2noise)y=f(x)+ϵ,ϵ∼N(0,σnoise2)y=f(\mathbf{x})+\epsilon, \quad …

1
Exemplo de como a estatística bayesiana pode estimar parâmetros que são muito difíceis de estimar através de métodos freqüentes
Os estatísticos bayesianos sustentam que "a estatística bayesiana pode estimar parâmetros que são muito difíceis de estimar através de métodos freqüentes". A seguinte citação retirada desta documentação do SAS diz a mesma coisa? Ele fornece inferências que dependem dos dados e são exatas, sem depender de aproximação assintótica. A inferência …

2
Aplicando inferência variacional estocástica à Mistura Bayesiana de Gaussiana
Estou tentando implementar o modelo de Mistura Gaussiana com inferência variacional estocástica, seguindo este artigo . Este é o pgm da mistura gaussiana. De acordo com o artigo, o algoritmo completo de inferência variacional estocástica é: E ainda estou muito confuso sobre o método para escalá-lo para GMM. Primeiro, pensei …

1
Detecção de ponto de mudança on-line bayesiana (distribuição preditiva marginal)
Estou lendo o documento on-line de detecção de ponto de mudança bayesiano de Adams e MacKay ( link ). Os autores começam escrevendo a distribuição preditiva marginal: em queP(xt+1|x1:t)=∑rtP(xt+1|rt,x(r)t)P(rt|x1:t)(1)P(xt+1|x1:t)=∑rtP(xt+1|rt,xt(r))P(rt|x1:t)(1) P(x_{t+1} | \textbf{x}_{1:t}) = \sum_{r_t} P(x_{t+1} | r_t, \textbf{x}_t^{(r)}) P(r_t | \textbf{x}_{1:t}) \qquad \qquad (1) xtxtx_t é a observação no tempo …



2
Comparação entre estimadores de Bayes
Considere a perda quadrática , com o dado previamente que . Seja a probabilidade. Encontre o estimador de Bayes .L(θ,δ)=(θ−δ)2L(θ,δ)=(θ−δ)2L(\theta,\delta)=(\theta-\delta)^2π(θ)π(θ)\pi(\theta)π(θ)∼U(0,1/2)π(θ)∼U(0,1/2)\pi(\theta)\sim U(0,1/2)f(x|θ)=θxθ−1I[0,1](x),θ>0f(x|θ)=θxθ−1I[0,1](x),θ>0f(x|\theta)=\theta x^{\theta-1}\mathbb{I}_{[0,1]}(x), \theta>0δπδπ\delta^\pi Considere a perda quadrática ponderada que com anterior . Seja seja a probabilidade. Encontre o estimador de Bayes .Lw(θ,δ)=w(θ)(θ−δ)2Lw(θ,δ)=w(θ)(θ−δ)2L_w(\theta,\delta)=w(\theta)(\theta-\delta)^2w(θ)=I(−∞,1/2)w(θ)=I(−∞,1/2)w(\theta)=\mathbb{I}_{(-\infty,1/2)}π1(θ)=I[0,1](θ)π1(θ)=I[0,1](θ)\pi_1(\theta)=\mathbb{I}_{[0,1]}(\theta)f(x|θ)=θxθ−1I[0,1](x),θ>0f(x|θ)=θxθ−1I[0,1](x),θ>0f(x|\theta)=\theta x^{\theta-1}\mathbb{I}_{[0,1]}(x), \theta>0δπ1δ1π\delta^\pi_1 Compare eδπδπ\delta^\piδπ1δ1π\delta^\pi_1 Primeiro, notei que , …

Ao utilizar nosso site, você reconhece que leu e compreendeu nossa Política de Cookies e nossa Política de Privacidade.
Licensed under cc by-sa 3.0 with attribution required.