Perguntas com a marcação «bayesian»

A inferência bayesiana é um método de inferência estatística que se baseia no tratamento dos parâmetros do modelo como variáveis ​​aleatórias e na aplicação do teorema de Bayes para deduzir declarações subjetivas de probabilidade sobre os parâmetros ou hipóteses, condicionadas ao conjunto de dados observado.

3
Quais são algumas aplicações ilustrativas da probabilidade empírica?
Ouvi falar da probabilidade empírica de Owen, mas até recentemente não prestava atenção até que me deparei com isso em um artigo de interesse ( Mengersen et al. 2012 ). Em meus esforços para entendê-lo, observei que a probabilidade dos dados observados é representada como , onde e .L=∏ipi=∏iP(Xi=x)=∏iP(Xi≤x)−P(Xi<x)L=∏ipi=∏iP(Xi=x)=∏iP(Xi≤x)−P(Xi<x)L = …


1
Cálculo da repetibilidade dos efeitos de um modelo mais antigo
Acabei de me deparar com este artigo , que descreve como calcular a repetibilidade (também conhecida como confiabilidade, também conhecida como correlação intraclasse) de uma medição via modelagem de efeitos mistos. O código R seria: #fit the model fit = lmer(dv~(1|unit),data=my_data) #obtain the variance estimates vc = VarCorr(fit) residual_var = …
28 mixed-model  reliability  intraclass-correlation  repeatability  spss  factor-analysis  survey  modeling  cross-validation  error  curve-fitting  mediation  correlation  clustering  sampling  machine-learning  probability  classification  metric  r  project-management  optimization  svm  python  dataset  quality-control  checking  clustering  distributions  anova  factor-analysis  exponential  poisson-distribution  generalized-linear-model  deviance  machine-learning  k-nearest-neighbour  r  hypothesis-testing  t-test  r  variance  levenes-test  bayesian  software  bayesian-network  regression  repeated-measures  least-squares  change-scores  variance  chi-squared  variance  nonlinear-regression  regression-coefficients  multiple-comparisons  p-value  r  statistical-significance  excel  sampling  sample  r  distributions  interpretation  goodness-of-fit  normality-assumption  probability  self-study  distributions  references  theory  time-series  clustering  econometrics  binomial  hypothesis-testing  variance  t-test  paired-comparisons  statistical-significance  ab-test  r  references  hypothesis-testing  t-test  normality-assumption  wilcoxon-mann-whitney  central-limit-theorem  t-test  data-visualization  interactive-visualization  goodness-of-fit 


3
Por que os priores de Jeffreys são considerados não informativos?
Considere um Jeffreys anterior onde p(θ)∝|i(θ)|−−−−√p(θ)∝|i(θ)|p(\theta) \propto \sqrt{|i(\theta)|}, ondeiiié a informação de Fisher. Eu continuo vendo esse prior sendo mencionado como um prior não informativo, mas nunca vi um argumento sobre por que ele não é informativo. Afinal, não é um constante constante, então deve haver outro argumento. Entendo que …
27 bayesian  prior 










2
É verdade que os métodos bayesianos não se ajustam demais?
É verdade que os métodos bayesianos não se ajustam demais? (Vi alguns artigos e tutoriais fazendo essa reivindicação) Por exemplo, se aplicarmos um Processo Gaussiano ao MNIST (classificação de dígitos manuscritos), mas mostrarmos apenas uma amostra, será revertida para a distribuição anterior para quaisquer entradas diferentes daquela amostra única, por …

Ao utilizar nosso site, você reconhece que leu e compreendeu nossa Política de Cookies e nossa Política de Privacidade.
Licensed under cc by-sa 3.0 with attribution required.