"Redes neuronales" es un término generalmente utilizado para referirse a las redes neuronales de avance. Las redes neuronales profundas son redes neuronales de avance con muchas capas.
Una red de creencias profundas no es lo mismo que una red neuronal profunda.
Como ha señalado, una red de creencias profundas tiene conexiones no dirigidas entre algunas capas. Esto significa que la topología de DNN y DBN es diferente por definición.
Las capas no dirigidas en el DBN se denominan Máquinas de Boltzmann restringidas. Estas capas se pueden entrenar utilizando un algoritmo de aprendizaje no supervisado (divergencia contrastante) que es muy rápido (¡Aquí hay un enlace ! Con detalles).
Algunos comentarios más:
Las soluciones obtenidas con redes neuronales más profundas corresponden a soluciones que funcionan peor que las soluciones obtenidas para redes con 1 o 2 capas ocultas. A medida que la arquitectura se profundiza, se hace más difícil obtener una buena generalización utilizando un Deep NN.
En 2006, Hinton descubrió que se podían lograr resultados mucho mejores en arquitecturas más profundas cuando cada capa (RBM) se entrena previamente con un algoritmo de aprendizaje no supervisado (divergencia contrastante). Luego, la Red se puede entrenar de forma supervisada utilizando la propagación hacia atrás para "ajustar" los pesos.