Los autoencoders son redes neuronales que aprenden una representación comprimida de la entrada para luego reconstruirla, de modo que puedan usarse para reducir la dimensionalidad. Están compuestos por un codificador y un decodificador (que pueden ser redes neuronales separadas). La reducción de la dimensionalidad puede ser útil para tratar o atenuar los problemas relacionados con la maldición de la dimensionalidad, donde los datos se vuelven escasos y es más difícil obtener "significancia estadística". Por lo tanto, los codificadores automáticos (y algoritmos como PCA) se pueden usar para lidiar con la maldición de la dimensionalidad.
¿Por qué nos importa la reducción de dimensionalidad específicamente usando autoencoders? ¿Por qué no podemos simplemente usar PCA, si el propósito es la reducción de dimensionalidad?
¿Por qué necesitamos descomprimir la representación latente de la entrada si solo queremos realizar la reducción de dimensionalidad, o por qué necesitamos la parte del decodificador en un autoencoder? ¿Cuáles son los casos de uso? En general, ¿por qué necesitamos comprimir la entrada para luego descomprimirla? ¿No sería mejor usar la entrada original (para empezar)?