Estou tentando entender como o XGBoost funciona. Eu já entendo como as árvores com gradiente aumentado funcionam no sklearn do Python. O que não está claro para mim é se o XGBoost funciona da mesma maneira, mas mais rápido, ou se existem diferenças fundamentais entre ele e a implementação do python.
Quando li este artigo
http://learningsys.org/papers/LearningSys_2015_paper_32.pdf
Parece-me que o resultado final do XGboost é o mesmo da implementação do Python, no entanto, a principal diferença é como o XGboost encontra a melhor divisão a ser feita em cada árvore de regressão.
Basicamente, o XGBoost fornece o mesmo resultado, mas é mais rápido.
Isso está correto ou está faltando alguma outra coisa?