A abordagem bayesiana tem vantagens práticas. Ajuda na estimativa, sendo frequentemente obrigatório. E permite novas famílias de modelos e ajuda na construção de modelos mais complicados (hierárquicos, multiníveis).
Por exemplo, com modelos mistos (incluindo efeitos aleatórios com parâmetros de variação), obtém-se melhores estimativas se os parâmetros de variação são estimados marginalizando sobre parâmetros de nível inferior (coeficientes do modelo; isso é chamado REML ). A abordagem bayesiana faz isso naturalmente. Com esses modelos, mesmo com REML, as estimativas de probabilidade máxima (ML) dos parâmetros de variância geralmente são zero ou enviesadas para baixo. Um prévio adequado para os parâmetros de variação ajuda.
Mesmo se a estimativa pontual ( PAM , máximo a posteriori) for usada, os anteriores alteram a família do modelo. A regressão linear com um grande conjunto de variáveis um pouco colineares é instável. A regularização de L2 é usada como remédio, mas é interpretável como um modelo bayesiano com estimativa gaussiana (não informativa) prévia e MAP. (A regularização L1 é um prior diferente e fornece resultados diferentes. Na verdade, aqui o prior pode ser um pouco informativo, mas trata das propriedades coletivas dos parâmetros, não de um único parâmetro.)
Portanto, existem alguns modelos comuns e relativamente simples em que uma abordagem bayesiana é necessária apenas para fazer a coisa!
As coisas são ainda mais favoráveis com modelos mais complicados, como a alocação latente de Dirichlet (LDA) usada no aprendizado de máquina. E alguns modelos são inerentemente bayesianos, por exemplo, aqueles baseados nos processos de Dirichlet .