Perguntas com a marcação «bayesian»

A inferência bayesiana é um método de inferência estatística que se baseia no tratamento dos parâmetros do modelo como variáveis ​​aleatórias e na aplicação do teorema de Bayes para deduzir declarações subjetivas de probabilidade sobre os parâmetros ou hipóteses, condicionadas ao conjunto de dados observado.

1
Modelagem bayesiana usando normal multivariada com covariável
Suponha que você tenha uma variável explicativa que representa uma determinada coordenada. Você também tem uma variável de resposta . Agora, podemos combinar as duas variáveis ​​como:X=(X(s1),…,X(sn))X=(X(s1),…,X(sn)){\bf{X}} = \left(X(s_{1}),\ldots,X(s_{n})\right)sssY=(Y(s1),…,Y(sn))Y=(Y(s1),…,Y(sn)){\bf{Y}} = \left(Y(s_{1}),\ldots,Y(s_{n})\right) W(s)=(X(s)Y(s))∼N(μ(s),T)W(s)=(X(s)Y(s))∼N(μ(s),T){\bf{W}}({\bf{s}}) = \left( \begin{array}{ccc}X(s) \\ Y(s) \end{array} \right) \sim N(\boldsymbol{\mu}(s), T) Nesse caso, simplesmente escolhemos μ(s)=(μ1μ2)Tμ(s)=(μ1μ2)T\boldsymbol{\mu}(s) = \left( \mu_{1} …

1
Exemplos de aplicação incorreta do teorema de Bayes
Essa pergunta da comunidade do estouro da matemática pediu "exemplos de argumentos ruins que envolvem a aplicação de teoremas matemáticos em contextos não matemáticos" e produziu uma lista fascinante de matemática aplicada patologicamente. Estou pensando em exemplos semelhantes de usos patológicos da inferência bayesiana. Alguém já encontrou artigos acadêmicos, posts …
11 bayesian 


2
Laplace suavização e Dirichlet antes
No artigo da wikipedia sobre suavização de Laplace (ou suavização aditiva), diz-se que, do ponto de vista bayesiano, isso corresponde ao valor esperado da distribuição posterior, usando uma distribuição simétrica de Dirichlet com o parâmetro como anterior.αα\alpha Estou confuso sobre como isso é realmente verdade. Alguém poderia me ajudar a …



1
Exemplo de estimativa máxima a posteriori
Eu tenho lido sobre estimativa de máxima verossimilhança e estimativa máxima a posteriori e até agora encontrei exemplos concretos apenas com a estimativa de máxima verossimilhança. Encontrei alguns exemplos abstratos de estimativa máxima a posteriori, mas nada concreto ainda com números: S Pode ser muito esmagador, trabalhando apenas com variáveis …


1
Binômio Neg e o Prior de Jeffreys
Estou tentando obter o prior de Jeffreys para uma distribuição binomial negativa. Não consigo ver onde errei, por isso, se alguém puder ajudar a apontar isso, isso seria apreciado. Ok, então a situação é a seguinte: devo comparar as distribuições anteriores obtidas usando um binômio e um binômio negativo, onde …


3
Probabilidade versus distribuição condicional para análise bayesiana
Podemos escrever o teorema de Bayes como p(θ|x)=f(X|θ)p(θ)∫θf(X|θ)p(θ)dθp(θ|x)=f(X|θ)p(θ)∫θf(X|θ)p(θ)dθp(\theta|x) = \frac{f(X|\theta)p(\theta)}{\int_{\theta} f(X|\theta)p(\theta)d\theta} onde é o posterior, é a distribuição condicional e é o anterior.p(θ|x)p(θ|x)p(\theta|x)f(X|θ)f(X|θ)f(X|\theta)p(θ)p(θ)p(\theta) ou p(θ|x)=L(θ|x)p(θ)∫θL(θ|x)p(θ)dθp(θ|x)=L(θ|x)p(θ)∫θL(θ|x)p(θ)dθp(\theta|x) = \frac{L(\theta|x)p(\theta)}{\int_{\theta} L(\theta|x)p(\theta)d\theta} onde é o posterior, é a função de probabilidade e é o anterior.p(θ|x)p(θ|x)p(\theta|x)L(θ|x)L(θ|x)L(\theta|x)p(θ)p(θ)p(\theta) Minha pergunta é Por que a análise bayesiana é …


1
Seleção de modelo ABC
Foi demonstrado que a escolha do modelo ABC usando fatores Bayes não é recomendada devido à presença de um erro proveniente do uso de estatísticas resumidas. A conclusão deste artigo baseia-se no estudo do comportamento de um método popular para aproximação do fator Bayes (algoritmo 2). É sabido que os …



Ao utilizar nosso site, você reconhece que leu e compreendeu nossa Política de Cookies e nossa Política de Privacidade.
Licensed under cc by-sa 3.0 with attribution required.