Veja também uma pergunta semelhante em stats.SE .
Ao impulsionar algoritmos como AdaBoost e LPBoost , sabe-se que os alunos "fracos" a serem combinados só precisam ter um desempenho melhor do que o acaso para serem úteis, da Wikipedia:
Os classificadores que ele usa podem ser fracos (ou seja, exibem uma taxa de erro substancial), mas desde que seu desempenho não seja aleatório (resultando em uma taxa de erro de 0,5 para classificação binária), eles melhorarão o modelo final. Mesmo classificadores com uma taxa de erro maior do que seria esperado de um classificador aleatório serão úteis, pois terão coeficientes negativos na combinação linear final de classificadores e, portanto, se comportarão como seus inversos.
Quais são os benefícios de usar alunos fracos em oposição a alunos fortes? (por exemplo, por que não impulsionar com métodos de aprendizado "fortes" - somos mais propensos a superajustar?)
Existe algum tipo de força "ideal" para os alunos fracos? E isso está relacionado ao número de alunos no conjunto?
Existe alguma teoria para fazer backup das respostas para essas perguntas?