Eu estava navegando no repositório do Github para o Pymc e encontrei este notebook:
Inferência Variacional: Redes Neurais Bayesianas
O autor exalta as virtudes da programação bayesiana / probabilística, mas continua dizendo:
Infelizmente, quando se trata de problemas tradicionais de ML, como classificação ou regressão (não linear), a Programação Probabilística geralmente joga o segundo violino (em termos de precisão e escalabilidade) para abordagens mais algorítmicas, como a aprendizagem de conjuntos (por exemplo, florestas aleatórias ou árvores de regressão reforçadas por gradiente) .
Alguém poderia explicar:
- Se esta afirmação é geralmente verdadeira
- Por que essa afirmação é verdadeira