Um aluno 'fraco' (classificador, preditor etc.) é apenas aquele que apresenta desempenho relativamente fraco - sua precisão está acima do acaso, mas apenas por pouco. Existe frequentemente, mas nem sempre, a implicação adicional de que é computacionalmente simples. O aluno fraco também sugere que muitas instâncias do algoritmo estão sendo agrupadas (por meio de reforço, empacotamento etc.) para criar um classificador de conjunto "forte".
É mencionado no artigo original do AdaBoost de Freund & Schapire:
Talvez a mais surpreendente dessas aplicações seja a derivação de uma nova aplicação para "impulsionar", ou seja, converter um algoritmo de aprendizado de PAC "fraco" que executa apenas um pouco melhor do que a adivinhação aleatória em um com precisão arbitrariamente alta. - (Freund e Schapire, 1995)
mas acho que a frase é realmente mais antiga que isso - já vi pessoas citarem um artigo (?!) de Michael Kearns, da década de 1980.
O exemplo clássico de um aprendiz fraco é um coto de decisão, uma árvore de decisão de um nível (1R ou OneR é outro aprendiz fraco comumente usado; é bastante semelhante). Seria um pouco estranho chamar um SVM de 'aprendiz fraco', mesmo em situações em que ele tenha um desempenho ruim, mas seria perfeitamente razoável chamar uma única decisão de coto de aprendiz fraco, mesmo quando o desempenho fosse surpreendentemente bom por si só.
O Adaboost é um algoritmo iterativo e
Tnormalmente denota o número de iterações ou "rodadas". O algoritmo começa treinando / testando um aluno fraco nos dados, ponderando cada exemplo igualmente. Os exemplos que são classificados incorretamente aumentam seus pesos para a (s) próxima (s) rodada (s), enquanto aqueles classificados corretamente recebem seus pesos diminuídos.
Não sei se há algo mágico sobre T= 10. In the 1995 paper, T is given as a free parameter (i.e., you set it yourself).