Perguntas com a marcação «softmax»

Função exponencial de normalização que transforma um vetor numérico de forma que todas as suas entradas fiquem entre 0 e 1 e juntas somam 1. É freqüentemente usada como a camada final de uma rede neural realizando uma tarefa de classificação.


6
Retropropagação com Softmax / Cross Entropy
Estou tentando entender como a retropropagação funciona para uma camada de saída softmax / entropia cruzada. A função de erro de entropia cruzada é E(t,o)=−∑jtjlogojE(t,o)=−∑jtjlog⁡ojE(t,o)=-\sum_j t_j \log o_j com ttt e ooo como alvo e saída no neurônio jjj , respectivamente. A soma é sobre cada neurônio na camada de …


4
Por que a saída softmax não é uma boa medida de incerteza para os modelos de aprendizagem profunda?
Trabalho com redes neurais convolucionais (CNNs) há algum tempo, principalmente em dados de imagem para segmentação semântica / segmentação de instância. Eu muitas vezes visualizei o softmax da saída de rede como um "mapa de calor" para ver o quão alto são as ativações por pixel para uma determinada classe. …



1
Caret glmnet vs cv.glmnet
Parece haver muita confusão na comparação entre usar glmnetdentro caretpara procurar uma lambda ideal e usar cv.glmnetpara fazer a mesma tarefa. Muitas perguntas foram feitas, por exemplo: Modelo de classificação train.glmnet vs. cv.glmnet? Qual é a maneira correta de usar glmnet com cursor? Validação cruzada de `glmnet` usando` caret` mas …


2
Definições diferentes da função de perda de entropia cruzada
Comecei aprendendo sobre redes neurais com o tutorial neuralnetworksanddeeplearning dot.com. Em particular no capítulo 3, há uma seção sobre a função de entropia cruzada e define a perda de entropia cruzada como: C= - 1n∑x∑j( yjemumaeuj+ ( 1 - yj) em( 1 - aeuj) ))C=-1n∑x∑j(yjem⁡umajeu+(1-yj)em⁡(1-umajeu))C = -\frac{1}{n} \sum\limits_x \sum\limits_j (y_j …

2
Qual a profundidade da conexão entre a função softmax no ML e a distribuição de Boltzmann na termodinâmica?
A função softmax, comumente usada em redes neurais para converter números reais em probabilidades, é a mesma função da distribuição de Boltzmann, a distribuição de probabilidade sobre energias para um conjunto de partículas em equilíbrio térmico a uma dada temperatura T na termodinâmica. Eu posso ver algumas razões heurísticas claras …

3
Não linearidade antes da camada Softmax final em uma rede neural convolucional
Estou estudando e tentando implementar redes neurais convolucionais, mas suponho que essa pergunta se aplique aos perceptrons multicamadas em geral. Os neurônios de saída em minha rede representam a ativação de cada classe: o neurônio mais ativo corresponde à classe prevista para uma determinada entrada. Para considerar um custo de …


1
Estouro Softmax [fechado]
Fechadas. Esta questão está fora de tópico . No momento, não está aceitando respostas. Deseja melhorar esta pergunta? Atualize a pergunta para que ela esteja no tópico de validação cruzada Fechado há 2 anos . Esperando o próximo curso de Andrew Ng no Coursera, estou tentando programar no Python um …
10 softmax  numerics 



Ao utilizar nosso site, você reconhece que leu e compreendeu nossa Política de Cookies e nossa Política de Privacidade.
Licensed under cc by-sa 3.0 with attribution required.