Según tengo entendido, las redes neuronales profundas están realizando un "aprendizaje de representación" al unir entidades en capas. Esto permite aprender estructuras dimensionales muy altas en las características. Por supuesto, es un modelo paramétrico con un número fijo de parámetros, por lo que tiene la limitación habitual de que la complejidad del modelo puede ser difícil de ajustar.
¿Existe una forma bayesiana (no paramétrica) de aprender tales estructuras en el espacio de características, permitiendo que la complejidad del modelo se adapte a los datos? Los modelos relacionados incluyen:
- Dirichlet procesa modelos mixtos, que permiten dividir el espacio en grupos ilimitados, lo que permite que los datos elijan un número finito
- modelos factoriales como Indian Buffet Process (IBP), que encuentran un número potencialmente infinito de características latentes (también conocidas como temas) que explican los datos.
Sin embargo, parece que el IBP no aprende representaciones profundas. También existe el problema de que estos métodos están diseñados para el aprendizaje no supervisado y usualmente utilizamos el aprendizaje profundo para tareas supervisadas. ¿Existe una variante del IBP u otros métodos que permitan que las representaciones crezcan a medida que lo exijan los datos?