Perguntas com a marcação «activation-function»


2
O que é a ativação GELU?
Eu estava examinando um artigo do BERT que usa GELU (Gaussian Error Linear Unit), que afirma a equação como GELU(x)=xP(X≤x)=xΦ(x).GELU(x)=xP(X≤x)=xΦ(x). GELU(x) = xP(X ≤ x) = xΦ(x).que se aproxima de 0.5x(1+tanh[2/π−−−√(x+0.044715x3)])0.5x(1+tanh[2/π(x+0.044715x3)])0.5x(1 + tanh[\sqrt{ 2/π}(x + 0.044715x^3)]) Você poderia simplificar a equação e explicar como ela foi aprovada.



3
Como usar o LeakyRelu como função de ativação na sequência DNN em keras? Quando ele funciona melhor que o Relu?
Como você usa o LeakyRelu como uma função de ativação na sequência DNN em keras? Se eu quiser escrever algo parecido com: model = Sequential() model.add(Dense(90, activation='LeakyRelu')) Qual é a solução? Coloque LeakyRelu semelhante a Relu? A segunda pergunta é: qual é a melhor configuração geral para ajustar os parâmetros …

Ao utilizar nosso site, você reconhece que leu e compreendeu nossa Política de Cookies e nossa Política de Privacidade.
Licensed under cc by-sa 3.0 with attribution required.