Esta es una cuestión de terminología. A veces veo que las personas se refieren a las redes neuronales profundas como "perceptrones de varias capas", ¿por qué es esto? Un perceptrón, me enseñaron, es un clasificador (o regresor) de una sola capa con una salida de umbral binario que usa una forma específica de entrenar los pesos (no el respaldo). Si la salida del perceptrón no coincide con la salida del objetivo, sumamos o restamos el vector de entrada a los pesos (dependiendo de si el perceptrón dio un falso positivo o un falso negativo). Es un algoritmo de aprendizaje automático bastante primitivo. El procedimiento de entrenamiento no parece generalizarse a un caso de múltiples capas (al menos no sin modificación). Una red neuronal profunda se entrena a través de backprop que utiliza la regla de la cadena para propagar los gradientes de la función de costo a través de todos los pesos de la red.
Entonces, la pregunta es. ¿Es un "perceptrón multicapa" lo mismo que una "red neuronal profunda"? Si es así, ¿por qué se utiliza esta terminología? Parece ser innecesariamente confuso. Además, suponiendo que la terminología es algo intercambiable, solo he visto la terminología "perceptrón multicapa" cuando me refiero a una red de alimentación compuesta por capas completamente conectadas (sin capas convolucionales o conexiones recurrentes). ¿Qué tan amplia es esta terminología? ¿Se usaría el término "perceptrón multicapa" al referirse, por ejemplo, a red de inicio? ¿Qué tal una red recurrente usando módulos LSTM usados en PNL?