2
Por que o ReLU é usado como uma função de ativação?
As funções de ativação são usadas para introduzir não linearidades na saída linear do tipo w * x + bem uma rede neural. O que eu sou capaz de entender intuitivamente para as funções de ativação como sigmoide. Entendo as vantagens do ReLU, que evita neurônios mortos durante a retropropagação. …