Eu não tenho uma resposta em livro. No entanto, aqui estão alguns pensamentos.
O aumento pode ser visto em comparação direta com ensacamento. Essas são duas abordagens diferentes do dilema de compensação de variação de polarização. Embora o ensacamento tenha como alunos fracos, alguns alunos com viés baixo e alta variação, calculando a média do conjunto de ensacamentos, diminuem a variação para um pequeno viés. Aumentar, por outro lado, funciona bem com diferentes alunos fracos. Os alunos fracos que impulsionam têm alto viés e baixa variação. Ao formar um aluno em cima de outro, o conjunto estimulante tenta diminuir o viés, por um pouco de variação.
Como conseqüência, se você considerar, por exemplo, usar ensacamento e reforço de árvores como alunos fracos, a melhor maneira de usar é árvores pequenas / curtas com reforço e árvores muito detalhadas com ensacamento. É por isso que, muitas vezes, um procedimento de reforço usa um coto de decisão como aluno fraco, que é a árvore mais curta possível (uma única condição se em uma única dimensão). Esse coto de decisão é muito estável e, portanto, apresenta uma variação muito baixa.
Não vejo nenhuma razão para usar árvores com procedimentos de reforço. No entanto, árvores curtas são simples, fáceis de implementar e fáceis de entender. No entanto, acho que, para ter sucesso com um procedimento de reforço, seu aluno fraco precisa ter baixa variação, deve ser rígido, com muito poucos graus de liberdade. Por exemplo, não vejo sentido em ter como aluno fraco uma rede neural.
Além disso, você deve observar que, para algum tipo de procedimento de aumento, aumento de gradiente, por exemplo, Breiman descobriu que, se o aluno fraco é uma árvore, alguma otimização na maneira como o aumento de desempenho pode ser feito. Assim, temos árvores que aumentam gradualmente. Há uma boa exposição ao aumento no livro da ESTL.