Redes Bayesianas (BN's) são modelos generativos. Suponha que você tenha um conjunto de entradas, X e saída Y . Os BNs permitem que você aprenda a distribuição conjunta P(X,Y) , ao contrário de digamos regressão logística ou Support Vector Machine, que modela a distribuição condicional P(Y|X) .
Aprender a distribuição de probabilidade conjunta (modelo generativo) dos dados é mais difícil do que aprender a probabilidade condicional (modelos discriminativos). No entanto, o primeiro fornece um modelo mais versátil, no qual você pode executar consultas como ou P ( X 1 | X 2 = A , X 3 = B ) , etc. Com o modelo discriminativo, seu único objetivo é aprender P ( Y | X ) .P(X1|Y)P(X1|X2=A,X3=B)P(Y|X)
Os BN utilizam DAG para prescrever a distribuição conjunta. Portanto, eles são modelos gráficos.
Vantagens:
Quando você tem muitos dados ausentes, por exemplo, na medicina, os BNs podem ser muito eficazes, pois a modelagem da distribuição conjunta (ou seja, sua afirmação sobre como os dados foram gerados) reduz sua dependência de ter um conjunto de dados totalmente observado.
Quando você deseja modelar um domínio de maneira visualmente transparente e também visar capturar relações de , os BNs podem ser muito poderosos. Note que a suposição de causalidade nos BN's está aberta a debate.cause→effect
Aprender a distribuição conjunta é uma tarefa difícil, modelá-la para variáveis discretas (através do cálculo de tabelas de probabilidade condicional, ou seja, CPTs) é substancialmente mais fácil do que tentar fazer o mesmo para variáveis contínuas. Portanto, os BNs são praticamente mais comuns com variáveis discretas.
Os BNs não apenas permitem inferência observacional (como todos os modelos de aprendizado de máquina permitem), mas também intervenções causais . Essa é uma vantagem comumente negligenciada e subestimada dos BNs e está relacionada ao raciocínio contrafactual.