Parece que quando olho aqui os algoritmos da aprendizagem da moda, coisas como redes neurais, árvores potencializadas, máquinas de vetores de suporte, florestas aleatórias e amigos são promovidas por problemas de aprendizagem supervisionados. Os processos de Dirichlet e seus tipos parecem ser mencionados principalmente em problemas de aprendizado não supervisionado, como agrupamento de documentos ou imagens. Eu os vejo acostumados a problemas de regressão, ou como antecedentes de uso geral quando se deseja fazer estatísticas bayesianas de maneira não paramétrica ou semiparamétrica (por exemplo, como um prior flexível na distribuição de efeitos aleatórios em certos modelos), mas minha experiência limitada sugere que isso não vem tanto da multidão de aprendizado de máquina quanto dos estatísticos mais tradicionais. Eu fiz uma pequena pesquisa no Google e eu '
Então, os processos Dirichlet e seus primos são mais eficazes que os anteriores para modelos flexíveis de agrupamento? Eles não são competitivos em impulsionar, SVMs e redes neurais para problemas de aprendizado supervisionado? Eles são úteis apenas em determinadas situações para esses problemas? Ou minha impressão geral está incorreta?