No soy un experto en autoencoders o redes neuronales de ninguna manera, así que perdóname si esta es una pregunta tonta.
Con el fin de reducir la dimensión o visualizar grupos en datos de alta dimensión, podemos usar un autoencoder para crear una representación bidimensional (con pérdida) al inspeccionar la salida de la capa de red con 2 nodos. Por ejemplo, con la siguiente arquitectura, inspeccionaríamos la salida de la tercera capa
donde son los datos de entrada y N l es el número de nodos en la capa l .
Ahora, mi pregunta es, ¿por qué queremos una arquitectura simétrica? ¿Un espejo de la fase de 'compresión' profunda significa que podríamos tener una fase de 'descompresión' igualmente compleja que resulta en una salida de 2 nodos que no está obligada a ser muy intuitiva? En otras palabras, ¿no tendría una fase de decodificación más simple que la salida de la capa con 2 nodos sea necesariamente también más simple?
Mi pensamiento aquí es que cuanto menos compleja es la fase de descompresión, más simple (¿más lineal?) Tiene que ser la representación 2D. Una fase de descompresión más compleja permitiría una representación 2D más compleja.