Perguntas com a marcação «backpropagation»

Use para perguntas sobre retropropagação, que é comumente usado no treinamento de redes neurais em conjunto com um método de otimização, como gradiente descendente.

3
Backprop através de camadas de pool máximo?
Esta é uma pequena questão conceitual que me incomoda há um tempo: como podemos retropropagar através de uma camada de pool máximo em uma rede neural? Me deparei com camadas de pool máximo durante o tutorial da biblioteca nn do Torch 7. A biblioteca abstrai o cálculo do gradiente e …


1
Rede neural profunda - retropropagação com ReLU
Estou tendo alguma dificuldade em derivar a propagação com a ReLU e fiz algum trabalho, mas não tenho certeza se estou no caminho certo. Função de custo: 12(y−y^)212(y−y^)2\frac{1}{2}(y-\hat y)^2em queyyyé o valor real, e y é um valor previsto. Suponha também quex> 0 sempre.y^y^\hat yxxx ReLU de 1 camada, em …




3
Gradientes para termos de viés na retropropagação
Eu estava tentando implementar uma rede neural do zero para entender a matemática por trás dela. Meu problema está completamente relacionado à retropropagação quando adotamos derivada em relação ao viés) e deduzi todas as equações usadas na retropropagação. Agora, toda equação está de acordo com o código da rede neural, …



3

1
Como aplicar o gradiente de softmax em backprop
Recentemente, fiz uma lição de casa em que tive que aprender um modelo para a classificação de 10 dígitos do MNIST. O HW tinha algum código de andaime e eu deveria trabalhar no contexto desse código. Meu dever de casa funciona / passa nos testes, mas agora estou tentando fazer …

2
Gradientes sintéticos - qual é o benefício prático?
Eu posso ver dois motivos para usar Gradientes Sintéticos na RNN: Para acelerar o treinamento, corrigindo imediatamente cada camada com o gradiente previsto Ser capaz de aprender sequências mais longas Eu vejo problemas com os dois. Observe que eu realmente gosto de gradientes sintéticos e gostaria de implementá-los. Mas preciso …

3
Criando rede neural para a função xor
É um fato bem conhecido que uma rede de uma camada não pode prever a função xor, uma vez que não é linearmente separável. Tentei criar uma rede de duas camadas, usando a função sigmoide logística e backprop, para prever xor. Minha rede possui 2 neurônios (e um viés) na …

1
Derivando equações de retropropagação "nativamente" na forma de tensor
A imagem mostra uma camada típica em algum lugar da rede feed forward: a(k)iai(k)a_i^{(k)} é o valor de ativação do neurônio na camada .ithithi^{th}kthkthk^{th} W(k)ijWij(k)W_{ij}^{(k)} é o peso que liga neurónio na camada para a neurónio na camada.ithithi^{th}kthkthk^{th}jthjthj^{th}(k+1)th(k+1)th(k+1)^{th} z(k+1)jzj(k+1)z_j^{(k+1)} é o valor da função de pré-ativação do neurônio na camada …

1
Propagação posterior: nos métodos de segunda ordem, a derivada ReLU seria 0? e qual o seu efeito no treinamento?
ReLU é uma função de ativação definida como h=max(0,a)h=max(0,a)h = \max(0, a)onde .a=Wx+ba=Wx+ba = Wx + b Normalmente, treinamos redes neurais com métodos de primeira ordem, como SGD, Adam, RMSprop, Adadelta ou Adagrad. A retropropagação em métodos de primeira ordem requer derivada de primeira ordem. Portanto é derivado de .xxx111 …

Ao utilizar nosso site, você reconhece que leu e compreendeu nossa Política de Cookies e nossa Política de Privacidade.
Licensed under cc by-sa 3.0 with attribution required.