Esta questão é abordada neste post muito agradável. Por favor, dê uma olhada nele e as referências nele. http://fastml.com/what-is-better-gradient-boosted-trees-or-random-forest/
Observe no artigo que ele fala sobre calibração e links para outro (bom) post sobre isso. Ainda assim, acho que o artigo Obtendo probabilidades calibradas do Boosting fornece uma melhor compreensão do que é a calibração no contexto dos classificadores aprimorados e quais são os métodos padrão para realizá-la.
E, finalmente, falta um aspecto (um pouco mais teórico). Tanto o RF quanto o GBM são métodos de conjunto, o que significa que você cria um classificador com um grande número de classificadores menores. Agora, a diferença fundamental está no método usado:
- O RF usa árvores de decisão, que são muito propensas a sobreajuste. Para obter maior precisão, a RF decide criar um grande número deles com base no ensacamento . A idéia básica é reamostrar os dados repetidamente e, para cada amostra, treinar um novo classificador. Classificadores diferentes superestimam os dados de uma maneira diferente e, através do voto, essas diferenças são calculadas em média.
- O GBM é um método impulsionador, baseado em classificadores fracos . A idéia é adicionar um classificador de cada vez, para que o próximo seja treinado para melhorar o conjunto já treinado. Observe que para RF cada iteração, o classificador é treinado independentemente do restante.