2
Função de custo de entropia cruzada na rede neural
Estou analisando a função de custo de entropia cruzada encontrada neste tutorial : C= - 1n∑x[ yema + ( 1 - y) em( 1 - a ) ]C=−1n∑x[ylna+(1−y)ln(1−a)]C = -\frac{1}{n} \sum_x [y \ln a+(1−y)\ln(1−a)] O que exatamente estamos resumindo? É claro que está acima de , mas e não mudam …