Perguntas com a marcação «backpropagation»

A retropropagação, uma abreviação de "propagação reversa de erros", é um método comum de treinamento de redes neurais artificiais usadas em conjunto com um método de otimização, como a descida em gradiente.



1
Qual a diferença entre softmax_cross_entropy_with_logits e softmax_cross_entropy_with_logits_v2?
Especificamente, suponho que me pergunto sobre essa afirmação: As principais versões futuras do TensorFlow permitirão que os gradientes fluam para a entrada de etiquetas no backprop por padrão. O que é mostrado quando eu uso tf.nn.softmax_cross_entropy_with_logits. Na mesma mensagem, exorta-me a dar uma olhada tf.nn.softmax_cross_entropy_with_logits_v2. Examinei a documentação, mas apenas …

6
Retropropagação com Softmax / Cross Entropy
Estou tentando entender como a retropropagação funciona para uma camada de saída softmax / entropia cruzada. A função de erro de entropia cruzada é E(t,o)=−∑jtjlogojE(t,o)=−∑jtjlog⁡ojE(t,o)=-\sum_j t_j \log o_j com ttt e ooo como alvo e saída no neurônio jjj , respectivamente. A soma é sobre cada neurônio na camada de …







2
Nas redes neurais, por que usar métodos de gradiente em vez de outras metaheurísticas?
No treinamento de redes neurais profundas e rasas, por que os métodos de gradiente (por exemplo, descida de gradiente, Nesterov, Newton-Raphson) são comumente usados, em oposição a outras metaheurísticas? Por metaheurísticas, refiro-me a métodos como recozimento simulado, otimização de colônias de formigas etc., que foram desenvolvidos para evitar o empate …


2
Algoritmo de retropropagação
Fiquei um pouco confuso sobre o algoritmo de retropropagação usado no perceptron multicamada (MLP). O erro é ajustado pela função de custo. Na retropropagação, estamos tentando ajustar o peso das camadas ocultas. O erro de saída que posso entender, isto é, e = d - y[Sem os subscritos]. As perguntas …



Ao utilizar nosso site, você reconhece que leu e compreendeu nossa Política de Cookies e nossa Política de Privacidade.
Licensed under cc by-sa 3.0 with attribution required.