Las redes neuronales se usan ampliamente en el aprendizaje no supervisado para aprender mejores representaciones de los datos de entrada. Por ejemplo, dado un conjunto de documentos de texto, NN puede aprender un mapeo de un documento a un vector de valor real de tal manera que los vectores resultantes sean similares para documentos con contenido similar, es decir, preservar la distancia. Esto se puede lograr utilizando, por ejemplo, codificadores automáticos, un modelo que está entrenado para reconstruir el vector original a partir de una representación más pequeña (activaciones de capa oculta) con un error de reconstrucción (distancia desde la función ID) como función de costo. Este proceso no le proporciona clústeres, pero crea representaciones significativas que pueden usarse para la agrupación. Podría, por ejemplo, ejecutar un algoritmo de agrupamiento en las activaciones de la capa oculta.
Agrupación: hay varias arquitecturas NN diferentes diseñadas específicamente para la agrupación. El más conocido es probablemente los mapas autoorganizados. Un SOM es un NN que tiene un conjunto de neuronas conectadas para formar una cuadrícula topológica (generalmente rectangular). Cuando se presenta algún patrón a un SOM, la neurona con el vector de peso más cercano se considera un ganador y sus pesos se adaptan al patrón, así como a los pesos de su vecindario. De esta manera, un SOM naturalmente encuentra grupos de datos. Un algoritmo algo relacionado es el crecimiento del gas neural (no se limita al número predefinido de neuronas).
Otro enfoque es la teoría de resonancia adaptativa, donde tenemos dos capas: "campo de comparación" y "campo de reconocimiento". El campo de reconocimiento también determina la mejor coincidencia (neurona) con el vector transferido desde el campo de comparación y también tiene conexiones inhibitorias laterales. Los detalles de implementación y las ecuaciones exactas se pueden encontrar fácilmente buscando en Google los nombres de estos modelos, por lo que no los pondré aquí.