Simplificando, e sem símbolos matemáticos, prior significa crenças iniciais sobre um evento em termos de distribuição de probabilidade . Você então configura um experimento e obtém alguns dados e, em seguida, "atualiza" sua crença (e, portanto, a distribuição de probabilidade) de acordo com o resultado do experimento (a distribuição de probabilidade a posteriori).
Exemplo:
Suponha que recebemos duas moedas. Mas não sabemos qual moeda é falsa. A moeda 1 é imparcial (CABEÇAS e CAUDAS têm 50% de probabilidade) e a Moeda 2 é tendenciosa, digamos, sabemos que ela fornece CABEÇAS com probabilidade de 60%. Matematicamente:
Dado que temos HEADS, a probabilidade de que seja a Moeda 1 é de 0,4 e a probabilidade de que seja a Moeda 2 é de 0,6 p ( H | C o i n 2 ) = 0,6
p ( H| Co i n1 1) = 0,4
p ( H| Co i n2) = 0,6
Então, isso é tudo o que sabemos antes de iniciar um experimento.
Agora vamos pegar uma moeda e, com base nas informações que temos (H ou T), vamos adivinhar qual moeda escolhemos (Moeda 1 ou Moeda 2).
Inicialmente, assumimos que ambas as moedas têm chances iguais, porque ainda não temos informações. Este é o nosso prior . É uma distribuição uniforme .p ( Co i n1 1) = p ( Co i n2) = 0,5
p ( Co i n1 1| H) = p ( H| Co i n1 1) p ( Co i n1 1)p ( H| Co i n1 1) p ( Co i n1 1) + p ( H| Co i n2) p ( Co i n2)= 0,4 × 0,50,4 × 0,5 + 0,6 × 0,5= 0,4
p ( Co i n2| H) = p ( H| Co i n2) p ( Co i n2)p ( H| Co i n1 1) p ( Co i n1 1) + p ( H| Co i n2) p ( Co i n2)= 0,6 × 0,50,4 × 0,5 + 0,6 × 0,5= 0,6
0,5
Esse é o princípio básico da inferência bayesiana e das estatísticas usadas no aprendizado de máquina.