Eu tenho tentado entender a idéia de anteriores conjugados nas estatísticas bayesianas por um tempo, mas simplesmente não entendo. Alguém pode explicar a idéia nos termos mais simples possíveis, talvez usando o "prior gaussiano" como exemplo?
Eu tenho tentado entender a idéia de anteriores conjugados nas estatísticas bayesianas por um tempo, mas simplesmente não entendo. Alguém pode explicar a idéia nos termos mais simples possíveis, talvez usando o "prior gaussiano" como exemplo?
Respostas:
A prévia de um parâmetro quase sempre terá alguma forma funcional específica (escrita em termos de densidade, geralmente). Digamos que nos restringimos a uma família específica de distribuições; nesse caso, escolher o nosso anterior se reduz a escolher os parâmetros dessa família.
Por exemplo, considere um modelo normal . Para simplificar, vamos também como conhecido. Esta parte do modelo - o modelo para os dados - determina a função de probabilidade.
Para completar nosso modelo bayesiano, aqui precisamos de um prior para .
Como mencionado acima, geralmente podemos especificar alguma família distributiva para o nosso anterior para e, em seguida, temos apenas que escolher os parâmetros dessa distribuição (por exemplo, muitas vezes as informações anteriores podem ser bastante vagas - como aproximadamente onde queremos que a probabilidade se concentre - em vez de uma forma funcional muito específica, e podemos ter liberdade suficiente para modelar o que queremos, escolhendo os parâmetros - digamos, para corresponder a uma média e variação anteriores).
Se acontecer que o posterior para é da mesma família que o anterior, então esse anterior é considerado "conjugado".
(O que faz com que seja conjugado é a maneira como combina com a probabilidade)
Portanto, neste caso, vamos usar um gaussiano anterior para (digamos μ ∼ N ( θ , τ 2 ) ). Se fizermos isso, vemos que o posterior para µ também é gaussiano. Consequentemente, o prior gaussiano foi um conjugado anterior para o nosso modelo acima.
Isso é tudo o que realmente existe - se o posterior for da mesma família do anterior, é um conjugado anterior.
Em casos simples, você pode identificar um conjugado antes pela inspeção da probabilidade. Por exemplo, considere uma probabilidade binomial; eliminando as constantes, parece uma densidade beta em ; e por causa da forma como os poderes de p e ( 1 - p ) combinam, ele vai multiplicar por um beta antes de dar também um produto de potências de p e ( 1 - p ) ... para que possamos ver imediatamente a partir da probabilidade de que o beta será um conjugado anterior para p na probabilidade binomial.
No caso gaussiano, é mais fácil ver que isso acontecerá considerando as densidades de log e a probabilidade de log; a probabilidade logarítmica será quadrática em e a soma de dois quadráticos é quadrática; portanto, uma probabilidade quadrática log-prior + log quadrática fornece um posterior quadrático (é claro que cada um dos coeficientes do termo de ordem mais alta será negativo).
Se o seu modelo pertencer a uma família exponencial , isto é, se a densidade da distribuição for da forma
A escolha da medida dominante é determinante para a família de priores. Se, por exemplo, houver uma probabilidade média normal em como na resposta de Glen_b , escolher a medida de Lebesgue como a medida dominante leva à conjugação dos anteriores normais. Se, em vez disso, se escolher como medida dominante, os anteriores conjugados estarão dentro da família de distribuições com densidades
Fora dessa configuração de família exponencial, não há uma família de distribuições não trivial com um suporte fixo que permita anteriores conjugados. Isso é conseqüência do lema de Darmois-Pitman-Koopman .
Eu gosto de usar a noção de um "kernel" de uma distribuição. É aqui que você sai apenas nas partes que dependem do parâmetro. Alguns exemplos simples.
Núcleo normal
Kernel beta
Quando olhamos para a função de probabilidade, podemos fazer a mesma coisa e expressá-la em "forma de kernel". Por exemplo, com dados iid
Para algumas constantes e algumas funções . Se pudermos reconhecer essa função como um kernel, podemos criar um conjugado anterior para essa probabilidade. Se tomarmos a probabilidade normal com variação de unidade, o acima será parecido com
where and and
This likelihood function has the same kernel as the normal distribution for , so a conjugate prior for this likelihood is also the normal distribution.
In some sense a conjugate prior acts similarly to adding "pseudo data" to the data observed, and then estimating the parameters.
Para uma determinada família de distribuição da probabilidade (por exemplo, Bernoulli),
se o prior for da mesma família de distribuiçãocomo o posterior (por exemplo, Beta),
então e are conjugate distribution families and the prior is called a conjugate prior for the likelihood function.
Note: