O problema com o qual estou lidando é prever valores de séries temporais. Estou analisando uma série temporal por vez e, com base em, por exemplo, 15% dos dados de entrada, gostaria de prever seus valores futuros. Até agora me deparei com dois modelos:
Eu tentei os dois e li alguns artigos sobre eles. Agora, estou tentando entender melhor como comparar os dois. O que eu encontrei até agora:
- O LSTM funciona melhor se estivermos lidando com uma quantidade enorme de dados e dados de treinamento suficientes estiverem disponíveis, enquanto o ARIMA é melhor para conjuntos de dados menores (isso está correto?)
- O ARIMA requer uma série de parâmetros
(p,q,d)
que devem ser calculados com base nos dados, enquanto o LSTM não exige a configuração desses parâmetros. No entanto, existem alguns hiperparâmetros que precisamos ajustar para o LSTM.
Além das propriedades acima mencionadas, não encontrei outros pontos ou fatos que pudessem me ajudar a selecionar o melhor modelo. Ficaria muito grato se alguém pudesse me ajudar a encontrar artigos, papéis ou outras coisas (até agora não tive sorte, apenas algumas opiniões gerais aqui e ali e nada baseado em experimentos).
Devo mencionar que, originalmente, estou lidando com dados de streaming, no entanto, por enquanto, estou usando conjuntos de dados NAB, que incluem 50 conjuntos de dados com o tamanho máximo de 20k pontos de dados.