Perguntas com a marcação «softmax»



3
Qual é a diferença entre sparse_softmax_cross_entropy_with_logits e softmax_cross_entropy_with_logits?
Recentemente, encontrei tf.nn.sparse_softmax_cross_entropy_with_logits e não consigo descobrir qual é a diferença em comparação com tf.nn.softmax_cross_entropy_with_logits . É a única diferença que os vetores de treinamento yprecisam ser codificados em um ponto ao usar sparse_softmax_cross_entropy_with_logits? Lendo a API, não consegui encontrar nenhuma outra diferença em comparação com softmax_cross_entropy_with_logits. Mas então por …
Ao utilizar nosso site, você reconhece que leu e compreendeu nossa Política de Cookies e nossa Política de Privacidade.
Licensed under cc by-sa 3.0 with attribution required.