Como é comum em alguns algoritmos de aprendizado de máquina, o Boosting está sujeito ao trade-off de variação de polarização em relação ao número de árvores. Em termos gerais, essa troca diz a você que: (i) os modelos fracos tendem a ter alto viés e baixa variação: são muito rígidos para capturar variabilidade no conjunto de dados de treinamento, portanto, também não terão bom desempenho no conjunto de testes (teste alto erro) (ii) modelos muito fortes tendem a ter um viés baixo e uma alta variação: são muito flexíveis e superestimam o conjunto de treinamento; portanto, no conjunto de teste (como os pontos de dados são diferentes do conjunto de treinamento), eles também não terão bom desempenho (erro de teste alto)
O conceito de Impulsionar árvores é começar com árvores rasas (modelos fracos) e continuar adicionando mais árvores rasas que tentam corrigir as fragilidades das árvores anteriores. À medida que você faz esse processo, o erro de teste tende a diminuir (porque o modelo geral fica mais flexível / poderoso). No entanto, se você adicionar muitas dessas árvores, começará a sobrescrever os dados de treinamento e, portanto, o erro de teste aumentará. A validação cruzada ajuda a encontrar o ponto ideal