n=37
Primeiro, de acordo com o que Glen_b disse, um bayesiano não está realmente interessado em saber se o dado é exatamente justo - não é. O que importa é se está próximo o suficiente , o que quer que "suficiente" signifique no contexto, digamos, dentro de 5% do justo para cada lado.
p1p2p3p=(p1,p2,p3)p1+p2+p3=1α0=(1,1,1)
X=(X1,X2,X3)Xp=(p1,p2,p3)α=(x1+1,x2+1,x3+1)
p
Enfim, aqui está como (com R):
Primeiro, obtenha alguns dados. Nós rolamos o dado 500 vezes.
set.seed(1)
y <- rmultinom(1, size = 500, prob = c(1,1,1))
(estamos começando com um dado justo; na prática, esses dados serão observados.)
p
library(MCMCpack)
A <- MCmultinomdirichlet(y, alpha0 = c(1,1,1), mc = 5000)
plot(A)
summary(A)
Finalmente, vamos estimar nossa probabilidade posterior (depois de observar os dados) de que o dado esteja dentro de 0,05 da média em cada coordenada.
B <- as.matrix(A)
f <- function(x) all((x > 0.28)*(x < 0.38))
mean(apply(B, MARGIN = 1, FUN = f))
O resultado é de cerca de 0,9486 na minha máquina. (Não é realmente uma surpresa. Afinal, começamos com um dado justo.)
Observação rápida: provavelmente não é razoável termos utilizado um artigo não informativo antes neste exemplo. Como existe uma dúvida, presumivelmente, o dado parece aproximadamente equilibrado em primeiro lugar, portanto, é melhor escolher um prior que esteja concentrado mais próximo de 1/3 em todas as coordenadas. Acima disso, simplesmente aumentaria nossa probabilidade posterior estimada de "próximo ao justo".