Posso combinar muitas árvores de aumento de gradiente usando a técnica de ensacamento


8

Baseado na árvore de aumento de gradiente vs floresta aleatória . GBDT e RF usando estratégias diferentes para lidar com tendências e variações.

Minha pergunta é: posso alterar a amostra do conjunto de dados (com substituição) para treinar vários GBDT e combinar suas previsões como resultado final?

É equivalente a construir uma floresta aleatória usando o GBDT como o aluno base

A ideia é que, o GBDT possa super-ajustar o conjunto de dados (semelhante ao crescimento total da árvore de decisão, baixa variação e alta variação). Espero que o uso da técnica de ensacamento também possa reduzir esse problema e desejar obter melhor desempenho.

Alguma sugestão?


Claro que você pode, mas eu suspeitaria que você faria melhor pelo mesmo esforço apenas executando com uma taxa de aprendizado menor.
Matthew Drury

Respostas:


4

Sim você pode. Ensacamento como técnica não depende de uma única árvore de classificação ou regressão como aprendiz de base; você pode fazer isso com qualquer coisa, embora muitos alunos de base (por exemplo, regressão linear) tenham menos valor que outros. O artigo de agregação de inicialização na Wikipedia contém um exemplo de ensacamento de LOESS smoothers em dados de ozônio.

No entanto, se você o fizesse, certamente não desejaria usar os mesmos parâmetros que um GBM único totalmente ajustado. Uma grande parte do ponto de ajustar um GBM é evitar o ajuste excessivo; o empacotamento reduz o ajuste excessivo por meio de um mecanismo diferente; portanto, se o GBM ajustado não se adequar muito, o empacotamento provavelmente também não ajudará muito - e, como é provável que você precise de centenas de árvores para empacotar com eficiência, seu tempo de execução aumentará um fator de várias centenas também. Portanto, agora você tem dois problemas - como ajustar o GBM, uma vez que ele está incorporado em uma floresta aleatória (embora provavelmente não seja tão importante fazê-lo corretamente, já que está incorporado em uma floresta aleatória) e o problema de tempo de execução.

Tendo escrito tudo isso, é verdade que o pensamento do tipo ensacamento pode ser lucrativamente integrado ao GBM, embora de uma maneira diferente. O H20, por exemplo, fornece a opção de desenvolver cada árvore da sequência de árvores GBM em uma amostra aleatória dos dados de treinamento. Essa amostra é feita sem substituição, pois acredita-se que a amostragem com substituição faça com que a árvore resultante superaqueça as partes da amostra que foram repetidas. Essa abordagem foi explicitamente motivada pelo procedimento de "ensacamento adaptável" de Breiman; consulte o artigo Estocástico de 1999 do Friedman para aumentar detalhes

Ao utilizar nosso site, você reconhece que leu e compreendeu nossa Política de Cookies e nossa Política de Privacidade.
Licensed under cc by-sa 3.0 with attribution required.