Preguntas etiquetadas con backpropagation

La propagación hacia atrás, una abreviatura para "propagación hacia atrás de errores", es un método común de entrenamiento de redes neuronales artificiales que se usa junto con un método de optimización como el descenso de gradiente.

6
¿Es posible entrenar una red neuronal sin propagación hacia atrás?
Muchos libros y tutoriales de redes neuronales dedican mucho tiempo al algoritmo de retropropagación, que es esencialmente una herramienta para calcular el gradiente. Supongamos que estamos construyendo un modelo con ~ 10K parámetros / pesos. ¿Es posible ejecutar la optimización usando algunos algoritmos de optimización sin gradiente? Creo que calcular …


1
¿En qué se diferencia softmax_cross_entropy_with_logits de softmax_cross_entropy_with_logits_v2?
Específicamente, supongo que me pregunto acerca de esta declaración: Las futuras versiones principales de TensorFlow permitirán que los gradientes fluyan a la entrada de etiquetas en backprop de forma predeterminada. Que se muestra cuando lo uso tf.nn.softmax_cross_entropy_with_logits. En el mismo mensaje me insta a echar un vistazo tf.nn.softmax_cross_entropy_with_logits_v2. Revisé la …

6
Backpropagation con Softmax / Cross Entropy
Estoy tratando de entender cómo funciona la retropropagación para una capa de salida softmax / cross-entropy. La función de error de entropía cruzada es E(t,o)=−∑jtjlogojE(t,o)=−∑jtjlog⁡ojE(t,o)=-\sum_j t_j \log o_j con ttt y ooo como objetivo y salida en la neurona jjj , respectivamente. La suma está sobre cada neurona en la …





1
Propagación inversa de gradiente a través de conexiones de omisión de ResNet
Tengo curiosidad acerca de cómo los gradientes se propagan hacia atrás a través de una red neuronal utilizando módulos ResNet / conexiones de omisión. He visto un par de preguntas sobre ResNet (por ejemplo, red neuronal con conexiones de capa de salto ), pero esta pregunta específicamente sobre la propagación …


2
En redes neuronales, ¿por qué utilizar métodos de gradiente en lugar de otras metaheurísticas?
En el entrenamiento de redes neuronales profundas y superficiales, ¿por qué los métodos de gradiente (p. Ej., Descenso de gradiente, Nesterov, Newton-Raphson) se usan comúnmente, en oposición a otras metaheurísticas? Por metaheurística me refiero a métodos como el recocido simulado, la optimización de colonias de hormigas, etc., que se desarrollaron …


2
Algoritmo de retropropagación
Tengo una ligera confusión sobre el algoritmo de retropropagación utilizado en el perceptrón multicapa (MLP). El error se ajusta mediante la función de costo. En la retropropagación, estamos tratando de ajustar el peso de las capas ocultas. El error de salida que puedo entender, es decir, e = d - …



Al usar nuestro sitio, usted reconoce que ha leído y comprende nuestra Política de Cookies y Política de Privacidad.
Licensed under cc by-sa 3.0 with attribution required.