Para colocar a resposta do @ ziggystar em termos de jargão de aprendizado de máquina: a idéia por trás das técnicas de agregação de bootstrap (por exemplo, florestas aleatórias) é ajustar muitos modelos de viés baixo e alta variância aos dados com algum elemento de "aleatoriedade" ou "instabilidade". No caso de florestas aleatórias, a instabilidade é adicionada através da inicialização e da seleção de um conjunto aleatório de recursos para dividir cada nó da árvore. A média dessas árvores barulhentas, mas com pouco viés, alivia a alta variação de qualquer árvore individual.
Enquanto as árvores de regressão / classificação são modelos de "baixo viés, alta variação", os modelos de regressão linear são tipicamente o oposto - "alto viés, baixa variação". Assim, o problema que frequentemente se depara com modelos lineares é reduzir o viés, não a variação. A agregação de bootstrap simplesmente não é feita para fazer isso.
Um problema adicional é que o bootstrapping pode não fornecer "aleatoriedade" ou "instabilidade" suficiente em um modelo linear típico. Eu esperaria que uma árvore de regressão fosse mais sensível à aleatoriedade das amostras de bootstrap, já que cada folha normalmente contém apenas alguns pontos de dados. Além disso, as árvores de regressão podem ser estocásticas, dividindo a árvore em um subconjunto aleatório de variáveis em cada nó. Consulte esta pergunta anterior para saber por que isso é importante: Por que as florestas aleatórias são divididas com base em m recursos aleatórios?
Tudo o que foi dito, você certamente pode usar a inicialização em modelos lineares [LINK] , e isso pode ser muito útil em determinados contextos. No entanto, a motivação é muito diferente das técnicas de agregação de inicialização.
a_0 + a_1 * x_1 + ... + a_d * x_d
, a função linear média resultante (após a agregação da inicialização) ainda possui a mesma forma funcional linear que a que você inicia (por exemplo, o 'aprendiz básico').