Pergunta interessante. Pessoalmente, não vi isso para produtos entrando em produção, mas entendo a lógica.
Teoricamente, quanto mais dados seu modelo implantado tiver, melhor será generalizado. Portanto, se você treinou o modelo no conjunto completo de dados disponíveis, ele deve generalizar melhor do que um modelo que apenas tenha visto, por exemplo, conjuntos de trens / val (por exemplo, ~ 90%) a partir do conjunto completo de dados.
O problema com isso (e a razão pela qual dividimos os dados em conjuntos de trens / val / testes em primeiro lugar!) É que queremos poder fazer declarações estatísticas sobre a precisão dos dados não vistos. Assim que treinamos novamente um modelo em todos os dados, não é mais possível fazer tais afirmações.
[Editar]
Aqui está uma pergunta relacionada sobre validação cruzada , onde a resposta aceita faz pontos semelhantes a mim e menciona outras maneiras de fazer as coisas.
Fazemos um loop:
- treinar um modelo
- → se satisfatório, vá para a etapa 5
- mudar modelo
- vá para o passo 1
- avaliar o desempenho no conjunto de testes
- Modelo atual com precisão de teste encontrado na etapa 5
Eventualmente, se você conseguir uma ótima pontuação no conjunto de testes, poderá afirmar que ele se generaliza bem. Portanto, a questão de saber se o treinamento no conjunto de dados completo melhorará o desempenho de dados futuros não vistos não é estritamente algo que você possa testar. Evidência empírica de melhor desempenho em outros conjuntos de problemas relacionados seria a única fonte ou orientação no momento em que você deve tomar a decisão.
Uma verificação de sanidade seria testar o modelo re-treinado novamente no conjunto de testes original; esperando ter uma pontuação mais alta do que nunca quando o modelo viu apenas o conjunto trem / válvula, porque ele realmente viu o conjunto de testes durante o treinamento. Isso não me deixaria 100% confiante de que este modelo final é superior em todos os casos futuros, mas pelo menos é o melhor possível com os dados fornecidos.
Talvez haja argumentos mais rigorosos contra fazer o que você diz (provavelmente motivado academicamente), mas parece atraente para aplicações práticas!