Qualquer probabilidade posterior é válida neste caso
Essa é uma pergunta interessante, que entra no território dos fundamentos da probabilidade. Existem algumas abordagens possíveis aqui, mas por razões que irei elaborar em breve, a abordagem preferida é fornecer uma definição mais ampla de probabilidade condicional que seja análoga à sua definição ao lidar com variáveis aleatórias contínuas. (Detalhes deste método são mostrados abaixo.) Nesse caso em particular, isso leva à conclusão de que o bayesiano pode sustentar qualquer crença posterior sobre X , e isso gera um conjunto coerente de crenças (apesar de terem observado um evento em que acreditam ter probabilidade zero).
A vantagem dessa abordagem é que ela fornece uma distribuição posterior bem definida e permite que o bayesiano atualize suas crenças condicionadas à observação de um evento que foi estipulado para ocorrer com probabilidade zero. O posterior é atualizado essencialmente arbitrariamente (qualquer probabilidade posterior é igualmente coerente), mas essa flexibilidade não é surpreendente, dado o que ocorreu. Nesse caso, diferentes bayesianos com as mesmas crenças anteriores poderiam legitimamente chegar a diferentes conclusões posteriores, devido ao fato de todos terem observado um evento com probabilidade zero a priori .
Probabilidade condicional para variáveis aleatórias contínuas: Quando estamos lidando com variáveis aleatórias contínuas, a função de probabilidade condicional é definida através do derivado de Radon-Nikodym e requer essencialmente que a função satisfaça a lei da probabilidade conjunta. Se X e E fossem variáveis aleatórias contínuas (em vez de eventos discretos) em um espaço de probabilidade (Ω,G,P) , definiríamos a função de probabilidade condicional p(x|e) como qualquer função mensurável não negativa que satisfaça a integral equação:
p(x)=∫Ep(x|e) dP(e)for all x∈X∈G.
Como p(x) também é definido por meio do derivado Radon-Nikodym, isso significa implicitamente que p(x|e) pode ser qualquer função mensurável não negativa que satisfaça a equação integral:
P(X∈A)=∫A∫Ep(x|e) dP(e) dxfor all A∈G.
Isso fornece uma solução não exclusiva para a função de probabilidade condicional, embora, na prática, toda solução seja "quase certamente" equivalente (ou seja, elas diferem apenas em um conjunto de resultados com probabilidade zero); portanto, não há problema com a não exclusividade. .
P(X|E)P(X|E¯)
P(X)=P(X|E)×P(E)+P(X|E¯)×(1−P(E)).
P(X)=1P(E|X)=0P(E)=0
1=P(X|E)×0+P(X|E¯)×1.
P(X|E¯)=10⩽P(X|E)⩽1P(X|E)
Por que essa abordagem faz mais sentido: É inteiramente possível que uma análise bayesiana envolva a observação de um evento discreto com probabilidade zero estipulada na distribuição anterior. Por exemplo, em um modelo padrão de lançamento de moeda, estipulamos uma distribuição de Bernoulli para o resultado cara / coroa, mas é possível que a moeda pare em sua borda (portanto, não é cara nem coroa). O cérebro não deve explodir nesse caso, e, portanto, cabe ao raciocínio bayesiano ter uma maneira bem definida de proceder nesse caso.
A principal vantagem da abordagem que descrevi é que ela sempre leva a pelo menos um valor permitido para a probabilidade posterior (ou seja, a probabilidade posterior é bem definida ). A probabilidade posterior não é definida de maneira única, mas isso é uma conseqüência natural do fato de que existem vários valores que são igualmente coerentes com a observação de amostragem com probabilidade zero. Essa abordagem significa que o bayesiano é livre para estipular qualquer probabilidade posterior, e isso é tão coerente quanto qualquer outra. (Lembre-se de que, quando dizemos "coerente" aqui, estamos falando de coerência com uma crença anterior que estipulava probabilidade zero para um evento discreto que realmente aconteceu; portanto, a coerência com isso não é muito alta!)
Há outro benefício importante nessa abordagem : permitir ao bayesiano atualizar suas crenças em resposta à observação de um evento que teve probabilidade de amostragem zero sob o anterior e, em particular, o bayesiano agora pode revisar suas crenças. para que eles não atribuam mais probabilidade zero a esse evento . No exemplo que você dá, o bayesiano tinha uma crença anterior de que é verdade quase certamente, e depois observou um evento com probabilidade de amostragem zero condicional a esse evento. Agora, o bayesiano está livre para atualizar sua crença em uma probabilidade posterior para que não seja uma (e, portanto, uma probabilidade posterior correspondente paraXX ˉ XX¯isso não é zero). Então, em essência, o bayesiano agora pode dizer: "Oh, merda! Isso foi um prior bobo! Deixe-me atualizar minha crença nesse evento para que ele não ocorra mais com quase certeza!" Além disso, não se trata de uma mudança ad hoc , mas de uma atualização "coerente" legítima, feita sob o teorema de Bayes.