Qual é a maneira mais fácil de entender o reforço?
Por que não aumenta classificadores muito fracos "até o infinito" (perfeição)?
Qual é a maneira mais fácil de entender o reforço?
Por que não aumenta classificadores muito fracos "até o infinito" (perfeição)?
Respostas:
Em inglês simples: se o seu classificador classificar erroneamente alguns dados, treine outra cópia deles principalmente nesta parte classificada com a esperança de que ele descubra algo sutil. E então, como sempre, itere. No caminho, existem alguns esquemas de votação que permitem combinar de forma sensata todas as previsões desses classificadores.
Porque às vezes é impossível (o ruído está apenas escondendo algumas das informações, ou nem está presente nos dados); por outro lado, aumentar demais pode levar ao excesso de ajustes.
O aumento emprega encolhimento por meio do parâmetro de taxa de aprendizado, que, juntamente com a validação cruzada k- fold, previsões "out-of-bag" (OOB) ou conjunto de testes independente, determina o número de árvores que um deve manter no conjunto.
Queremos um modelo que aprenda lentamente, portanto, há uma troca em termos da complexidade de cada modelo individual e do número de modelos a serem incluídos. As orientações que eu vi sugerem que você defina a taxa de aprendizado o mais baixa possível (considerando os requisitos de tempo de computação e espaço de armazenamento), enquanto a complexidade de cada árvore deve ser selecionada com base em se as interações são permitidas e em que grau, quanto mais complexa a árvore, mais complexas são as interações que podem ser representadas.
A taxa de aprendizado é escolhida no intervalo . Valores menores ( ) são os preferidos. Essa é uma ponderação aplicada a cada árvore para diminuir a contribuição de cada modelo para os valores ajustados.
O CV k- fold (ou previsões OOB ou conjunto de testes independente) é usado para decidir quando o modelo impulsionado começou a se ajustar demais. Essencialmente, é isso que nos impede de impulsionar para o modelo perfeito, mas é melhor aprender lentamente, para que tenhamos um grande conjunto de modelos que contribuem para o modelo ajustado.