Geralmente não, mas potencialmente sim com erros de especificação. O problema que você está procurando é chamado de admissibilidade. Uma decisão é admissível se não houver uma maneira menos arriscada de calculá-la.
Todas as soluções bayesianas são admissíveis e as soluções não bayesianas são admissíveis na medida em que correspondam a uma solução bayesiana em cada amostra ou no limite. Uma solução freqüentista ou bayesiana admissível sempre vencerá uma solução ML, a menos que também seja admissível. Com isso dito, existem algumas observações práticas que tornam essa afirmação verdadeira, mas vazia.
Primeiro, o prior da opção bayesiana deve ser o seu real prioritário, e não uma distribuição anterior usada para fazer feliz um editor de uma revista. Segundo, muitas soluções freqüentistas são inadmissíveis e um estimador de retração deveria ter sido usado em vez da solução padrão. Muitas pessoas desconhecem o lema de Stein e suas implicações para erros fora da amostra. Finalmente, o ML pode ser um pouco mais robusto, em muitos casos, para erros de especificação incorreta.
Quando você se muda para as árvores de decisão e seus primos nas florestas, não está usando uma metodologia semelhante, a menos que esteja usando algo semelhante a uma rede Bayes. Uma solução gráfica contém uma quantidade substancial de informações implícitas, particularmente um gráfico direcionado. Sempre que você adiciona informações a um processo probabilístico ou estatístico, reduz a variabilidade do resultado e altera o que seria considerado admissível.
Se você observar o aprendizado de máquina a partir de uma perspectiva de composição de funções, ele se tornará uma solução estatística, mas usando aproximações para tornar a solução tratável. Para soluções bayesianas, o MCMC economiza quantidades inacreditáveis de tempo, assim como a descida do gradiente para muitos problemas de ML. Se você tivesse que construir um posterior exato para integrar ou usar força bruta em muitos problemas de ML, o sistema solar morreria devido ao calor antes de obter uma resposta.
Meu palpite é que você tem um modelo mal especificado para quem usa estatísticas ou estatísticas inadequadas. Ensinei uma palestra em que provei que os recém-nascidos flutuariam pelas janelas, se não fossem apropriadamente enrolados, e onde um método bayesiano superou radicalmente um método frequentista em uma escolha multinomial que o método freqüentista quebrou mesmo, na expectativa, enquanto o método bayesiano dobrou o dinheiro dos participantes . Agora, abusei das estatísticas no primeiro e aproveitei a inadmissibilidade do estimador freqüentista no segundo, mas um usuário ingênuo de estatísticas poderia facilmente fazer o que eu fiz. Eu apenas os tornei extremos para tornar os exemplos óbvios, mas usei dados absolutamente reais.
Florestas aleatórias são estimadores consistentes e parecem se assemelhar a certos processos bayesianos. Devido à ligação aos estimadores de kernel, eles podem estar bastante próximos. Se houver uma diferença material no desempenho entre os tipos de solução, há algo no problema subjacente que você está entendendo mal e se o problema tiver alguma importância, será necessário procurar realmente a fonte da diferença, pois também pode ser a caso todos os modelos sejam mal especificados.