Perguntas com a marcação «deep-learning»

uma nova área de pesquisa de aprendizado de máquina relacionada às tecnologias usadas para aprender representações hierárquicas de dados, feitas principalmente com redes neurais profundas (ou seja, redes com duas ou mais camadas ocultas), mas também com algum tipo de modelo gráfico probabilístico.

4
Doutorado em Matemática (Programação Não Linear) mudando para Ciência de Dados?
Eu sou Ph.D. em matemática aluno interessado em ingressar na indústria como cientista de dados após a graduação. Apresentarei brevemente alguns antecedentes sobre minha educação antes de fazer minha pergunta, para que seja melhor compreendida: Curso de Matemática: Isso tem sido principalmente em matemática pura: topologia, análise funcional, etc., mas …

1
O que são "VGG54" e "VGG22" derivados da CNN VGG19?
No artigo Super-resolução de imagem única foto-realista usando uma rede adversa generativa de Christian Ledig et al., A distância entre imagens (usada na função de perda) é calculada a partir de mapas de características extraídos da rede VGG19. Os dois usados ​​no artigo são (um pouco confusos) chamados VGG22 e …

1
Por que a reconstrução em auto-codificadores está usando a mesma função de ativação que a ativação direta e não a inversa?
Suponha que você tenha uma camada de entrada com n neurônios e a primeira camada oculta possua neurônios, normalmente . Então você calcula a acticação do neurônio na camada oculta pormmmm&lt;nm&lt;nm < najaja_jjjj aj=f(∑i=1..nwi,jxi+bj)aj=f(∑i=1..nwi,jxi+bj)a_j = f\left(\sum\limits_{i=1..n} w_{i,j} x_i+b_j\right) , em que é uma função de ativação como ou .ffftanhtanh\tanhsigmoidsigmoid\text{sigmoid} Para …




1
compreendendo a normalização de lote
No documento Normalização em lote: acelerando o treinamento em rede profunda por Redução da mudança interna de covariáveis ​​( aqui ) Antes de explicar o processo de normalização em lote, o artigo tenta explicar os problemas relacionados (não estou entendendo qual é o problema exato abordado aqui) . excerto da …


4
As convoluções "achatam imagens"?
Estou procurando uma boa explicação de como funcionam as convoluções no aprendizado profundo quando aplicadas a imagens multicanais. Por exemplo, digamos que eu tenha uma imagem de 100 x 100 pixels com três canais, RGB. O tensor de entrada teria dimensões de 100 x 100 x 3. Se eu aplicar …


1
Existe algum domínio em que a Spiking Neural Networks supera outros algoritmos (sem spikes)?
Estou lendo sobre técnicas de computação de reservatórios como Echo State Networks e Liquid State Machines . Ambos os métodos envolvem alimentar entradas para uma população de neurônios spikes conectados aleatoriamente (ou não) e um algoritmo de leitura relativamente simples que produz a saída (por exemplo, regressão linear). Os pesos …


1
Theano na pesquisa de aprendizagem profunda
Quão amplamente o Theano é usado na pesquisa de aprendizado profundo? O Theano é um bom começo para aprender a implementação de algoritmos de aprendizado de máquina? Aprender a implementação de algo como uma rede feed forward realmente ajudará? Os estudantes de pós-graduação implementam redes neurais ou outros algoritmos pelo …

1
Gere previsões ortogonais (não correlacionadas) para uma determinada variável
Eu tenho uma Xmatriz, uma yvariável e outra variável ORTHO_VAR. Preciso prever a yvariável usando X, no entanto, as previsões desse modelo precisam ser ortogonais e, ao ORTHO_VARmesmo tempo, estar o mais correlacionadas ypossível. Eu preferiria que as previsões fossem geradas com um método não paramétrico como, por exemplo, xgboost.XGBRegressormas …
8 correlation  machine-learning  dataset  logistic-regression  prediction  linear-regression  prediction  dummy-variables  neural-network  image-classification  python  k-nn  python  neural-network  neural-network  deep-learning  keras  tensorflow  image-classification  tensorflow  reinforcement-learning  policy-gradients  machine-learning  decision-trees  neural-network  overfitting  data-analysis  metric  python  scikit-learn  distance  scipy  machine-learning  python  scikit-learn  decision-trees  logistic-regression  keras  image-classification  implementation  machine-learning  python  scikit-learn  random-forest  decision-trees  machine-learning  feature-selection  feature-engineering  word2vec  word-embeddings  natural-language-process  scikit-learn  time-series  clustering  k-means  python  cross-validation  pyspark  statistics  cross-validation  multiclass-classification  evaluation  machine-learning  nlp  machine-translation  neural-network  deep-learning  keras  tensorflow  image-classification  machine-learning  python  similarity  distance  lstm  text  named-entity-recognition  machine-learning  keras  optimization  gan  learning-rate  neural-network  data-mining  dataset  databases  books  neural-network  rnn 


Ao utilizar nosso site, você reconhece que leu e compreendeu nossa Política de Cookies e nossa Política de Privacidade.
Licensed under cc by-sa 3.0 with attribution required.