Uma razão para usar a regra de probabilidade total é que geralmente lidamos com as probabilidades dos componentes nessa expressão e é fácil encontrar a probabilidade marginal simplesmente inserindo os valores. Para uma ilustração disso, consulte o seguinte exemplo na Wikipedia:
Outra razão é reconhecer formas equivalentes da Regra de Bayes, manipulando essa expressão. Por exemplo:
P( B | A ) = P( A | B ) P( B )P( A | B ) P( B ) + P( A | ¬ B ) P( ¬ B )
Divida pelo RHS pelo numerador:
P( B | A ) = 11 + P( A | ¬ B )P( A | B )P( ¬ B )P( B )
Qual é uma boa forma equivalente à Regra de Bayes, tornada ainda mais fácil subtraindo isso da expressão original para obter:
P( ¬ B | A )P( B | A )= P( A | ¬ B )P( A | B )P( ¬ B )P( B )
Esta é a Regra de Bayes, declarada em termos de Odds, ou seja, odds posteriores contra B = fator Bayes contra B vezes as odds anteriores contra B. (Ou você pode invertê-lo para obter uma expressão em termos de odds para B.) O fator Bayes é a proporção das probabilidades de seus modelos. Dado que não temos certeza sobre o mecanismo subjacente de geração de dados, observamos os dados e atualizamos nossas crenças.
Não tenho certeza se você acha isso útil, mas espero que não seja desconcertante; obviamente, você deve trabalhar com a expressão que funciona melhor para o seu cenário. Talvez alguém possa entrar com razões ainda melhores.