2
Por que a entropia cruzada se tornou a função de perda padrão de classificação e não a divergência de Kullbeck Leibler?
A entropia cruzada é idêntica à divergência KL mais a entropia da distribuição do alvo. KL é igual a zero quando as duas distribuições são iguais, o que me parece mais intuitivo do que a entropia da distribuição de destino, que é a entropia cruzada de uma correspondência. Não estou …