Imagine que você mostre a uma rede neural a imagem de um leão 100 vezes e rotule com "perigoso", para descobrir que os leões são perigosos.
Agora imagine que anteriormente você mostrou milhões de imagens de leões e o rotulou como "perigoso" e "não perigoso", de tal forma que a probabilidade de um leão ser perigoso é de 50%.
Mas essas últimas cem vezes levaram a rede neural a ser muito positiva em considerar o leão como "perigoso", ignorando assim o último milhão de lições.
Portanto, parece que há uma falha nas redes neurais, pois elas podem mudar de idéia muito rapidamente com base em evidências recentes. Especialmente se a evidência anterior estivesse no meio.
Existe um modelo de rede neural que controla quantas evidências ele viu? (Ou isso seria equivalente a deixar a taxa de aprendizado diminuir em onde é o número de tentativas?)