Esta é a primeira vez que eu realmente respondo a uma pergunta, portanto, não me prenda a isso .. mas acho que posso responder sua pergunta:
Se você está realmente interessado apenas no desempenho do modelo e não em algo como a floresta aleatória de interpretabilidade, muitas vezes é um algoritmo de aprendizado muito bom, mas apresenta um desempenho um pouco pior nos seguintes casos:
1.) Quando a dimensionalidade (número de características) é muito alta em relação ao número de amostras de treinamento, nesses casos, uma regressão linear regularizada ou SVM seria melhor.
2.) No caso, há representações de ordem superior / estruturas convolucionais nos dados, como, por exemplo, problemas de visão computacional. Nesses casos de visão computacional, uma rede neural convolucional supera uma floresta aleatória (em geral, se houver conhecimento que possa ser incorporado ao aprendizado, isso é uma coisa melhor).
Dito isto, a floresta aleatória é um bom ponto de partida. Uma das pessoas que eu admiro por suas habilidades de aprendizado de máquina sempre começa com o aprendizado de uma floresta aleatória e um regressor linear regularizado.
No entanto, se você deseja o melhor desempenho possível, acredito que hoje em dia as redes neurais aka. O Deep Learning parece uma abordagem muito atraente. Mais e mais vencedores em sites de desafio de dados como o Kaggle usam modelos de Aprendizado Profundo para a competição. Outro profissional das redes neurais é que elas podem lidar com um número muito grande de amostras (> 10 ^ 6, pode-se treiná-las usando descida de gradiente estocástico, alimentando bits de dados por vez). Pessoalmente, acho isso um profissional muito atraente para o Deep Learning.