diferencia entre red neuronal y aprendizaje profundo


10

En términos de la diferencia entre la red neuronal y el aprendizaje profundo, podemos enumerar varios elementos, como la inclusión de más capas, un conjunto de datos masivo, un hardware de computadora potente para hacer posible el entrenamiento del modelo complicado.

Además de estos, ¿hay alguna explicación más detallada sobre la diferencia entre NN y DL?


3
Hasta donde sé, solo tener varias capas ocultas es suficiente para hacer que una red sea "profunda"; Más datos y computadoras más grandes son más un síntoma de la creciente disponibilidad de ambos para las tareas de aprendizaje automático.
Sycorax dice Reinstate Monica el

¿Quizás esta pregunta debería migrarse al nuevo intercambio de pila de inteligencia artificial ?
WilliamKF

2
@WilliamKF Esto es directamente sobre el tema aquí.
Sycorax dice Reinstate Monica

Respuestas:



4

Frank Dernoncourt tiene una mejor respuesta de propósito general, pero creo que vale la pena mencionar que cuando las personas usan el término amplio "Aprendizaje profundo" a menudo implican el uso de técnicas recientes, como la convolución, que no encontrarías en las versiones anteriores / tradicionales. (totalmente conectadas) redes neuronales. Para problemas de reconocimiento de imágenes, la convolución puede permitir redes neuronales más profundas porque las neuronas / filtros contorneados reducen el riesgo de sobreajuste al compartir pesos.


1

Las redes neuronales con muchas capas son arquitecturas profundas.

Sin embargo, el algoritmo de aprendizaje de retropropagación utilizado en redes neuronales no funciona bien cuando la red es muy profunda. Las arquitecturas de aprendizaje en arquitecturas profundas ("aprendizaje profundo") tienen que abordar esto. Por ejemplo, las máquinas de Boltzmann utilizan un algoritmo de aprendizaje contrastante.

Crear una arquitectura profunda es fácil. Encontrar un algoritmo de aprendizaje que funcione bien para una arquitectura profunda ha resultado difícil.


Pero parece que el algoritmo de retropropagación todavía se usa para entrenar redes de conv y redes recurrentes, a pesar de que aprovechan algunas técnicas de optimización numérica recientemente desarrolladas, como la normalización por lotes.
user3269

@ user3269 la normalización por lotes y el abandono son ejemplos de modificaciones al algoritmo de aprendizaje para intentar que funcionen bien en arquitecturas profundas.
Neil G

0

El aprendizaje profundo requiere una red neuronal que tenga múltiples capas: cada capa realiza transformaciones matemáticas y se alimenta a la siguiente capa. La salida de la última capa es la decisión de la red para una entrada dada. Las capas entre la capa de entrada y la de salida se llaman capas ocultas.

Una red neuronal de aprendizaje profundo es una colección masiva de perceptrones interconectados en capas. Los pesos y el sesgo de cada perceptrón en la red influyen en la naturaleza de la decisión de salida de toda la red. En una red neuronal perfectamente sintonizada, todos los valores de pesos y sesgos de todos los perceptrones son tales que la decisión de salida siempre es correcta (como se esperaba) para todas las entradas posibles. ¿Cómo se configuran los pesos y el sesgo? Esto sucede de forma iterativa durante el entrenamiento de la red, llamado aprendizaje profundo. (Sharad Gandhi)

Al usar nuestro sitio, usted reconoce que ha leído y comprende nuestra Política de Cookies y Política de Privacidad.
Licensed under cc by-sa 3.0 with attribution required.