Por lo que puedo decir, los SOM de estilo Kohonen tuvieron un pico alrededor de 2005 y no han visto tanto favor recientemente. No he encontrado ningún documento que diga que los SOM hayan sido subsumidos por otro método, o que hayan demostrado ser equivalentes a algo más (de todas formas, en dimensiones más altas). Pero parece que tSNE y otros métodos obtienen mucha más tinta hoy en día, por ejemplo en Wikipedia o en SciKit Learn, y se menciona más a SOM como método histórico.
(En realidad, un artículo de Wikipedia parece indicar que los SOM continúan teniendo ciertas ventajas sobre los competidores, pero también es la entrada más corta en la lista. EDITAR: Por solicitud de Gung, uno de los artículos en los que estoy pensando es: Reducción de dimensionalidad no lineal Tenga en cuenta que SOM ha escrito menos al respecto que los otros métodos. No puedo encontrar el artículo que menciona una ventaja que los SOM parecen retener sobre la mayoría de los otros métodos).
Alguna idea? Alguien más preguntó por qué no se están utilizando los SOM, y obtuve referencias de hace un tiempo, y encontré las actas de las conferencias de SOM, pero me preguntaba si el aumento de SVM o tSNE, et al, simplemente eclipsó a los SOM en el aprendizaje automático.
EDIT 2: Por pura coincidencia, estaba leyendo una encuesta de 2008 sobre reducción de dimensionalidad no lineal esta noche, y por ejemplo solo menciona: Isomap (2000), incrustación localmente lineal (LLE) (2000), Hessian LLE (2003), Laplaciano mapas propios (2003) e inclusión semidefinida (SDE) (2004).