Perguntas com a marcação «neural-networks»

Redes neurais artificiais (RNAs) são uma ampla classe de modelos computacionais vagamente baseados em redes neurais biológicas. Eles abrangem NNs de feedforward (incluindo NNs "profundos"), NNs convolucionais, NNs recorrentes etc.

4
Na CNN, o upsampling e a transposição da convolução são iguais?
Os termos "upsampling" e "transpose convolution" são usados ​​quando você está executando "deconvolution" (<- não é um bom termo, mas deixe-me usá-lo aqui). Originalmente, eu pensava que eles significam a mesma coisa, mas parece-me que eles são diferentes depois de ler esses artigos. alguém pode esclarecer? Convolução de transposição : …

1
O que exatamente é um bloco de Aprendizagem Residual no contexto de Redes Residuais Profundas na Aprendizagem Profunda?
Eu estava lendo o artigo Deep Residual Learning for Image Reconhecimento e tive dificuldades em entender com 100% de certeza o que um bloco residual implica computacionalmente. Lendo o trabalho deles, eles têm a figura 2: que ilustra o que um bloco residual é suposto ser. O cálculo de um …

2
Definições diferentes da função de perda de entropia cruzada
Comecei aprendendo sobre redes neurais com o tutorial neuralnetworksanddeeplearning dot.com. Em particular no capítulo 3, há uma seção sobre a função de entropia cruzada e define a perda de entropia cruzada como: C= - 1n∑x∑j( yjemumaeuj+ ( 1 - yj) em( 1 - aeuj) ))C=-1n∑x∑j(yjem⁡umajeu+(1-yj)em⁡(1-umajeu))C = -\frac{1}{n} \sum\limits_x \sum\limits_j (y_j …



1

2
Qual a profundidade da conexão entre a função softmax no ML e a distribuição de Boltzmann na termodinâmica?
A função softmax, comumente usada em redes neurais para converter números reais em probabilidades, é a mesma função da distribuição de Boltzmann, a distribuição de probabilidade sobre energias para um conjunto de partículas em equilíbrio térmico a uma dada temperatura T na termodinâmica. Eu posso ver algumas razões heurísticas claras …


3
Não linearidade antes da camada Softmax final em uma rede neural convolucional
Estou estudando e tentando implementar redes neurais convolucionais, mas suponho que essa pergunta se aplique aos perceptrons multicamadas em geral. Os neurônios de saída em minha rede representam a ativação de cada classe: o neurônio mais ativo corresponde à classe prevista para uma determinada entrada. Para considerar um custo de …


2
Diferença entre uma única rede LSTM e uma rede neural LSTM de 3 unidades
O LSTM no seguinte código Keras input_t = Input((4, 1)) output_t = LSTM(1)(input_t) model = Model(inputs=input_t, outputs=output_t) print(model.summary()) pode ser representado como Entendo que quando chamamos model.predict(np.array([[[1],[2],[3],[4]]]))a (apenas) unidade LSTM processa primeiro o vetor [1], depois [2] mais o feedback da entrada anterior e assim por diante até o vetor …

1
Aproximação de segunda ordem da função de perda (Deep learning book, 7.33)
No livro de Goodfellow (2016) sobre aprendizado profundo, ele falou sobre a equivalência da parada antecipada à regularização de L2 ( https://www.deeplearningbook.org/contents/regularization.html página 247). A aproximação quadrática da função de custo é dada por:jjj J^(θ)=J(w∗)+12(w−w∗)TH(w−w∗)J^(θ)=J(w∗)+12(w−w∗)TH(w−w∗)\hat{J}(\theta)=J(w^*)+\frac{1}{2}(w-w^*)^TH(w-w^*) onde é a matriz hessiana (Eq. 7.33). Isso está faltando no meio termo? A expansão …




Ao utilizar nosso site, você reconhece que leu e compreendeu nossa Política de Cookies e nossa Política de Privacidade.
Licensed under cc by-sa 3.0 with attribution required.