Perguntas com a marcação «neural-network»

As redes neurais artificiais (RNA) são compostas de 'neurônios' - construções de programação que imitam as propriedades dos neurônios biológicos. Um conjunto de conexões ponderadas entre os neurônios permite que as informações se propaguem através da rede para resolver problemas de inteligência artificial sem que o projetista da rede tenha um modelo de sistema real.

10
O que são camadas deconvolucionais?
Li recentemente Redes totalmente convolucionais para segmentação semântica de Jonathan Long, Evan Shelhamer, Trevor Darrell. Não entendo o que as "camadas desconvolucionais" fazem / como elas funcionam. A parte relevante é 3.3 Upsampling é convolução para trás Outra maneira de conectar saídas grosseiras a pixels densos é a interpolação. Por …



6
Quando usar GRU sobre LSTM?
A principal diferença entre uma GRU e um LSTM é que uma GRU possui duas portas ( redefinir e atualizar portas), enquanto uma LSTM possui três portas (portas de entrada , saída e esquecimento ). Por que usamos GRU quando claramente temos mais controle sobre a rede através do modelo …




3
Backprop através de camadas de pool máximo?
Esta é uma pequena questão conceitual que me incomoda há um tempo: como podemos retropropagar através de uma camada de pool máximo em uma rede neural? Me deparei com camadas de pool máximo durante o tutorial da biblioteca nn do Torch 7. A biblioteca abstrai o cálculo do gradiente e …


3
RNN vs CNN em alto nível
Estive pensando nas Redes Neurais Recorrentes (RNN) e suas variedades e nas Redes Neurais Convolucionais (CNN) e suas variedades. Seria justo dizer esses dois pontos: Use CNNs para dividir um componente (como uma imagem) em subcomponentes (como um objeto em uma imagem, como o contorno do objeto na imagem etc.) …

2
Quando usar a inicialização normal (He ou Glorot) sobre init uniforme? E quais são seus efeitos com a Normalização em lote?
Eu sabia que a Residual Network (ResNet) tornou popular a inicialização normal de He. No ResNet, a inicialização normal é usada , enquanto a primeira camada usa a inicialização uniforme. Examinei os artigos da ResNet e os artigos "Investigando profundamente os retificadores" (artigo de inicialização He), mas não encontrei nenhuma …




1
Qual é a diferença entre LeakyReLU e PReLU?
f(x)=max(x,αx) with α∈(0,1)f(x)=max(x,αx) with α∈(0,1)f(x) = \max(x, \alpha x) \qquad \text{ with } \alpha \in (0, 1) Keras, no entanto, tem ambas as funções nos documentos . LeaL ReLU Fonte do LeakyReLU : return K.relu(inputs, alpha=self.alpha) Portanto (consulte o código ) f1(x)=max(0,x)−αmax(0,−x)f1(x)=max(0,x)−αmax(0,−x)f_1(x) = \max(0, x) - \alpha \max(0, -x) PReLU …

Ao utilizar nosso site, você reconhece que leu e compreendeu nossa Política de Cookies e nossa Política de Privacidade.
Licensed under cc by-sa 3.0 with attribution required.