2
A Normalização em lote faz sentido para uma função de ativação da ReLU?
A normalização de lote é descrita neste documento como uma normalização da entrada para uma função de ativação com variáveis de escala e deslocamento e \ beta . Este artigo descreve principalmente o uso da função de ativação sigmóide, que faz sentido. No entanto, parece-me que alimentar uma entrada da …