Recentemente, encontrei tf.nn.sparse_softmax_cross_entropy_with_logits e não consigo descobrir qual é a diferença em comparação com tf.nn.softmax_cross_entropy_with_logits .
É a única diferença que os vetores de treinamento y
precisam ser codificados em um ponto ao usar sparse_softmax_cross_entropy_with_logits
?
Lendo a API, não consegui encontrar nenhuma outra diferença em comparação com softmax_cross_entropy_with_logits
. Mas então por que precisamos da função extra?
Não deve softmax_cross_entropy_with_logits
produzir os mesmos resultados que sparse_softmax_cross_entropy_with_logits
, se for fornecido com dados / vetores de treinamento codificados em um único ponto?