5
A função de erro de entropia cruzada em redes neurais
No MNIST para iniciantes em ML, eles definem entropia cruzada como Hy′(y):=−∑iy′ilog(yi)Hy′(y): =-∑EuyEu′registro(yEu)H_{y'} (y) := - \sum_{i} y_{i}' \log (y_i) yiyEuy_i é o valor de probabilidade previsto para a classeiEui ey′iyEu′y_i' é a verdadeira probabilidade para essa classe. Questão 1 Não é um problema que yiyiy_i (no log(yi)log(yi)\log(y_i) ) possa …