Autoencoders são redes neurais que aprendem uma representação compactada da entrada para reconstruí-la posteriormente, para que possam ser usadas para redução de dimensionalidade. Eles são compostos de um codificador e um decodificador (que podem ser redes neurais separadas). A redução da dimensionalidade pode ser útil para lidar ou atenuar os problemas relacionados à maldição da dimensionalidade, onde os dados se tornam escassos e é mais difícil obter "significância estatística". Portanto, autoencodificadores (e algoritmos como PCA) podem ser usados para lidar com a maldição da dimensionalidade.
Por que nos preocupamos com a redução de dimensionalidade usando especificamente codificadores automáticos? Por que não podemos simplesmente usar o PCA, se o objetivo é a redução da dimensionalidade?
Por que precisamos descomprimir a representação latente da entrada se queremos apenas realizar uma redução de dimensionalidade ou por que precisamos da parte do decodificador em um autoencoder? Quais são os casos de uso? Em geral, por que precisamos compactar a entrada para descompactá-la posteriormente? Não seria melhor usar apenas a entrada original (para começar)?