Respuestas:
"Backprop" es lo mismo que "backpropagation": es solo una forma más corta de decirlo. A veces se abrevia como "BP".
'Backprop' es la abreviatura de 'backpropagation of error' para evitar confusiones cuando se utiliza el término de retropropagación .
Básicamente, la propagación hacia atrás se refiere al método para calcular el gradiente de la función de error en cuanto a mayúsculas y minúsculas con respecto a los pesos de una red de avance Werbos . Y backprop se refiere a un método de entrenamiento que usa la propagación hacia atrás para calcular el gradiente.
Entonces, podemos decir que una red de backprop es una red de retroalimentación entrenada por backpropagation .
El término 'backprop estándar' es un eufemismo para la regla delta generalizada que es el método de entrenamiento supervisado más utilizado.
Fuente: ¿Qué es backprop? en las preguntas frecuentes del grupo de noticias Usenet comp.ai.neural-nets
Referencias
Sí, como Franck ha dicho correctamente, "backprop" significa retropropogación, que se usa con frecuencia en el dominio de las redes neuronales para la optimización de errores.
Para una explicación detallada, quisiera señalar este tutorial sobre el concepto de retropropagación de un muy buen libro de Michael Nielsen.
En el aprendizaje automático, la retropropagación (backprop, BP) es un algoritmo ampliamente utilizado en el entrenamiento de redes neuronales de avance para el aprendizaje supervisado. Las generalizaciones de la retropropagación existen para otras redes neuronales artificiales (ANN), y para funciones en general, una clase de algoritmos a los que se hace referencia genéricamente como "retropropagación".
Es un nombre elegante para la regla de la cadena multivariable.