Com os algoritmos de aprendizado de máquina, geralmente é benéfico usar a escala ou normalização de recursos para ajudar o algoritmo a convergir rapidamente durante o treinamento e evitar que um conjunto de recursos domine outro. Tomemos, por exemplo, o problema de prever os preços das ações. Se você incluir estoques com preços altos, como Apple ou Microsoft, juntamente com alguns estoques de moeda de um centavo, os recursos de alto valor que você necessariamente extrairá da Apple e os preços da Microsoft sobrecarregarão os que você extrai dos estoques de moeda de um centavo e não estará treinando base de maçã para maçã (sem trocadilhos!), e o modelo treinado resultante pode não generalizar muito bem.
No entanto, imho "tentar reciclar e prejudicar os dados" seria uma coisa muito boa a se fazer. Extrair os vários componentes cíclicos e de tendência e normalizá-los subtraindo seus respectivos meios e dividindo por seus desvios-padrão colocaria todos os dados para todas as séries temporais no mesmo intervalo aproximado e, então, você treinaria para gostar de dados que, quando redimensionado pela reversão da normalização, provavelmente generalizaria muito melhor para fins preditivos.
Além disso, para qualquer série temporal, pode ser o caso de tendência inundar o componente cíclico; portanto, você pode acabar treinando apenas dados de tendência que quase certamente não terão bom desempenho em séries temporais cíclicas e vice-versa. Separando os dois componentes e treinando em cada um com SVMs ou NNs separados e recombinando as duas previsões, você pode acabar com um algoritmo mais preciso e facilmente generalizável.