Eu estou querendo saber como interpretar uma arquitetura recorrente em um contexto EEG. Especificamente, estou pensando nisso como uma CNN recorrente (em oposição a arquiteturas como LSTM), mas talvez se aplique a outros tipos de redes recorrentes também
Quando leio sobre R-CNNs, elas geralmente são explicadas em contextos de classificação de imagens. Eles são normalmente descritos como "aprendizado ao longo do tempo" ou "incluindo o efeito do tempo 1 na entrada atual"
Essa interpretação / explicação fica realmente confusa ao trabalhar com dados de EEG. Um exemplo de um R-CNN usado em dados de EEG pode ser encontrado aqui
Imagine que tenho exemplos de treinamento, cada um consistindo em uma matriz 1x512. Essa matriz captura uma leitura de tensão para 1 eletrodo em 512 pontos de tempo consecutivos. Se eu usar isso como entrada para uma CNN recorrente (usando convoluções 1D), a parte recorrente do modelo não está realmente capturando "tempo", certo? (como seria implícito nas descrições / explicações discutidas anteriormente) Como neste contexto, o tempo já é capturado pela segunda dimensão da matriz
Portanto, com uma configuração como essa, o que a parte recorrente da rede realmente nos permite modelar que uma CNN comum não pode (senão tempo)?
Parece-me que recorrente significa apenas fazer uma convolução, adicionar o resultado à entrada original e convolver novamente. Isso é repetido para o número x de etapas recorrentes. Que vantagem esse processo realmente oferece?