Perguntas com a marcação «neural-networks»

Redes neurais artificiais (RNAs) são uma ampla classe de modelos computacionais vagamente baseados em redes neurais biológicas. Eles abrangem NNs de feedforward (incluindo NNs "profundos"), NNs convolucionais, NNs recorrentes etc.

1
Medição da correlação de redes neurais treinadas
Estou treinando uma rede neural artificial (retropropagação, feed-forward) com dados distribuídos não normais. Além do erro quadrático médio da raiz, a literatura sugere frequentemente o coeficiente de correlação de Pearson para avaliar a qualidade da rede treinada. Mas, o coeficiente de correlação de Pearson é razoável, se os dados de …




1
O que é previsão densa no aprendizado profundo?
Estou usando o modelo pré-treinado de Rede Neural Convolucional do TensorFlow. https://github.com/tensorflow/models/blob/master/slim/nets/resnet_v2.py#L130 Encontrei a seguinte frase: No entanto, para tarefas de previsão densa, recomendamos que se use entradas com dimensões espaciais que são múltiplos de 32 mais 1, por exemplo, [321, 321]. Alguém sabe o que é previsão densa nesta …


2
Os dados de treinamento estão desequilibrados - mas meu conjunto de validação também deve ser?
Eu rotulei dados compostos por 10000 exemplos positivos e 50000 exemplos negativos, fornecendo um total de 60000 exemplos. Obviamente esses dados estão desequilibrados. Agora, digamos que quero criar meu conjunto de validação e quero usar 10% dos meus dados para fazer isso. Minha pergunta é a seguinte: Devo garantir que …

3
Como o gerador em um GAN é treinado?
O artigo sobre GANs diz que o discriminador usa o seguinte gradiente para treinar: ∇θd1m∑i = 1m[ logD ( x( I )) +log( 1 - D ( G ( z( I )) ) ) ]∇θd1m∑i=1m[log⁡D(x(i))+log⁡(1−D(G(z(i))))]\nabla _{\theta_d} \frac{1}{m}\sum^{m}_{i=1} [\log{D(x^{(i)})} + \log{(1-D(G(z^{(i)})))}] Os valores são amostrados, passados ​​através do gerador para gerar …






2
Vetorização de perda de entropia cruzada
Estou lidando com um problema relacionado à localização do gradiente da função de perda de entropia cruzada no parâmetro que:θθ\theta CE(θ)=−∑iyi∗log(y^i)CE(θ)=−∑iyi∗log(y^i)CE(\theta) = -\sum\nolimits_{i}{y_i*log({\hat{y}_{i}})} Onde, e é uma entrada de vetor.y^i=softmax(θi)y^i=softmax(θi)\hat{y}_{i} = softmax(\theta_i)θiθi\theta_i Além disso, é um vetor quente da classe correta e é a previsão para cada classe usando a …


Ao utilizar nosso site, você reconhece que leu e compreendeu nossa Política de Cookies e nossa Política de Privacidade.
Licensed under cc by-sa 3.0 with attribution required.