Estou lendo sobre técnicas de computação de reservatórios como Echo State Networks e Liquid State Machines . Ambos os métodos envolvem alimentar entradas para uma população de neurônios spikes conectados aleatoriamente (ou não) e um algoritmo de leitura relativamente simples que produz a saída (por exemplo, regressão linear). Os pesos da população de neurônios são fixos ou treinados através de uma regra de atividade local semelhante ao Hebbian como STDP .
Essas técnicas têm bom desempenho ao modelar entradas multidimensionais que possuem componentes temporais significativos. No entanto, calcular os potenciais de pico da membrana dos neurônios envolve integração de equações diferenciais e pode ser computacionalmente caro.
Existem exemplos de onde a complexidade computacional adicional das técnicas de computação de reservatório é superada pelos ganhos em uma tarefa de previsão ou classificação?
Por exemplo, existem casos de técnicas de SNN superando arquiteturas comparativamente complexas com base em RNNs, ANNs, SVMs, DNNs, CNNs ou outros algoritmos?