Pelo que entendi , alterar um perceptron sem reciclagem é impossível. Os ajustes de peso não são apenas relativos a esse exemplo específico, mas também a outros exemplos de treinamento anteriores. Identificar a instância classificada incorretamente e removê-la do conjunto de testes antes de treinar novamente o modelo parece ser a maneira mais eficaz de corrigir os pesos.
Acho que vale ressaltar que, em comparação com outros algoritmos de aprendizado de máquina, os perceptrons são relativamente resistentes ao ruído e a instâncias classificadas incorretamente no conjunto de treinamento . Se você encontrar um grande número de instâncias classificadas incorretamente, seria mais prudente ter uma validação melhor no momento em que você ingere os dados antes do treinamento do que encontrar uma maneira de corrigir instâncias classificadas incorretamente após o treinamento do perceptron. Se isso não for possível e você conseguir identificar as instâncias classificadas incorretamente como tal, removê-las e reciclar parece a única maneira de remover efetivamente o impacto das instâncias classificadas incorretamente.