Estou repostando uma "resposta" a uma pergunta que eu havia feito há duas semanas atrás: Por que o Jeffreys é útil antes? Era realmente uma pergunta (e eu também não tinha o direito de postar comentários), então espero que esteja tudo bem fazer isso:
No link acima, é discutido que a característica interessante de Jeffreys anterior é que, ao remeterar o modelo, a distribuição posterior resultante fornece probabilidades posteriores que obedecem às restrições impostas pela transformação. Digamos, como discutido lá, ao passar da probabilidade de sucesso no exemplo Beta-Bernoulli para odds , deve ser o caso em que a a posterior satisfaz .
Eu queria criar um exemplo numérico de invariância de Jeffreys antes para transformar em odds e, mais interessante, a falta de outros anteriores (digamos, Haldane, uniformes ou arbitrários).
Agora, se o posterior para a probabilidade de sucesso for Beta (para qualquer Beta anterior, não apenas Jeffreys), o posterior das probabilidades segue uma distribuição Beta do segundo tipo (consulte a Wikipedia) com os mesmos parâmetros . Então, como destacado no exemplo numérico abaixo, não é de surpreender (pelo menos para mim) que haja invariância para qualquer escolha de Beta anterior (brinque com alpha0_U
e beta0_U
), não apenas Jeffreys, cf. a saída do programa.
library(GB2)
# has the Beta density of the 2nd kind, the distribution of theta/(1-theta) if theta~Beta(alpha,beta)
theta_1 = 2/3 # a numerical example as in the above post
theta_2 = 1/3
odds_1 = theta_1/(1-theta_1) # the corresponding odds
odds_2 = theta_2/(1-theta_2)
n = 10 # some data
k = 4
alpha0_J = 1/2 # Jeffreys prior for the Beta-Bernoulli case
beta0_J = 1/2
alpha1_J = alpha0_J + k # the corresponding parameters of the posterior
beta1_J = beta0_J + n - k
alpha0_U = 0 # some other prior
beta0_U = 0
alpha1_U = alpha0_U + k # resulting posterior parameters for the other prior
beta1_U = beta0_U + n - k
# posterior probability that theta is between theta_1 and theta_2:
pbeta(theta_1,alpha1_J,beta1_J) - pbeta(theta_2,alpha1_J,beta1_J)
# the same for the corresponding odds, based on the beta distribution of the second kind
pgb2(odds_1, 1, 1,alpha1_J,beta1_J) - pgb2(odds_2, 1, 1,alpha1_J,beta1_J)
# same for the other prior and resulting posterior
pbeta(theta_1,alpha1_U,beta1_U) - pbeta(theta_2,alpha1_U,beta1_U)
pgb2(odds_1, 1, 1,alpha1_U,beta1_U) - pgb2(odds_2, 1, 1,alpha1_U,beta1_U)
Isso me leva às seguintes perguntas:
- Eu cometo um erro?
- Se não, existe um resultado como falta de invariância em famílias conjugadas ou algo assim? (A inspeção rápida me leva a suspeitar que, por exemplo, eu também não produzisse falta de invariância no caso normal-normal.)
- Você conhece um exemplo (de preferência simples) em que fazem obter falta de invariância?