Perguntas com a marcação «autoencoders»

Redes neurais feedforward treinadas para reconstruir suas próprias contribuições. Normalmente, uma das camadas ocultas é um "gargalo", levando à interpretação do codificador> decodificador.

2
Qual é a origem das redes neurais do autoencoder?
Pesquisei no Google, Wikipedia, Google Scholar e mais, mas não consegui encontrar a origem dos Autoencoders. Talvez seja um desses conceitos que evoluiu muito gradualmente, e é impossível traçar um ponto de partida claro, mas ainda assim eu gostaria de encontrar algum tipo de resumo das principais etapas de seu …




2
KL Perda com uma unidade Gaussiana
Estou implementando um VAE e notei duas implementações diferentes on-line da divergência simplificada univariada de KL gaussiana. A divergência original conforme aqui é Se assumirmos que nosso prior é uma unidade gaussiana, ou seja, e , isso simplifica para E aqui é onde está minha confusão. Embora eu tenha encontrado …

1
Não é possível fazer com que esta rede de autoencoder funcione corretamente (com camadas convolutional e maxpool)
As redes de codificadores automáticos parecem ser muito mais complicadas do que as redes MLP classificadoras normais. Depois de várias tentativas usando Lasagne, tudo o que recebo na saída reconstruída é algo que se assemelha, na melhor das hipóteses, a uma média borrada de todas as imagens do banco de …







1
Redução não linear de dimensionalidade: algoritmos geométricos / topológicos vs. autoencodificadores
Pelo que entendi, existem três abordagens principais para a redução não linear da dimensionalidade: Aprendizagem múltipla (algoritmos geométricos / topológicos como ISOMAP, LLE, LTSA) Autoencoders coisas que não se encaixam nas duas primeiras categorias (t-SNE inspirado em probabilidade, Kernel PCA, etc.) Quais são os benefícios e as desvantagens das duas …
Ao utilizar nosso site, você reconhece que leu e compreendeu nossa Política de Cookies e nossa Política de Privacidade.
Licensed under cc by-sa 3.0 with attribution required.