O que você descreve soa muito como Unidades Lineares Exponenciais em Escala (SELUs), que são o núcleo das Redes Neurais Auto-Normalizantes , que foram apresentadas no NIPS 2017.
Um breve resumo daqui é o seguinte:
Se a média e a variação da entrada estiverem em determinado intervalo, a média e a variação da saída devem (1) também nesse intervalo e (2) convergir para um ponto fixo após aplicar iterativamente a função de ativação.
Você pode querer dar uma olhada nos comentários do post do reddit . Se você quiser entendê-las completamente, poderá prosseguir com o apêndice de 90 páginas da pré-impressão arxiv .
Eles chamaram muita atenção quando foram apresentados, mas acho que eles não cumpriram as expectativas, pois ninguém parece estar falando sobre eles ultimamente na internet .