Preguntas etiquetadas con backpropagation

Úselo para preguntas sobre la retropropagación, que se usa comúnmente en el entrenamiento de redes neuronales junto con un método de optimización como el descenso de gradientes.

3
Backprop a través de Max-Pooling Layers?
Esta es una pequeña pregunta conceptual que me ha estado molestando por un tiempo: ¿Cómo podemos propagarnos a través de una capa de agrupación máxima en una red neuronal? Me encontré con capas de agrupación máxima mientras revisaba este tutorial para la biblioteca nn de Torch 7. La biblioteca abstrae …


1
Red neuronal profunda: propagación hacia atrás con ReLU
Tengo algunas dificultades para derivar la propagación hacia atrás con ReLU, e hice algo de trabajo, pero no estoy seguro de si estoy en el camino correcto. Función de costo: 12(y−y^)212(y−y^)2\frac{1}{2}(y-\hat y)^2, dondeyyyes el valor real, y Y es un valor predicho. También suponga quex> 0 siempre.y^y^\hat yxxx 1 capa …


1
propagación hacia atrás en CNN
Tengo la siguiente CNN: Comienzo con una imagen de entrada de tamaño 5x5 Luego aplico convolución usando kernel 2x2 y stride = 1, que produce un mapa de características de tamaño 4x4. Luego aplico 2x2 max-pooling con stride = 2, que reduce el mapa de características al tamaño 2x2. Luego …




3

2
Gradientes sintéticos: ¿cuál es el beneficio práctico?
Puedo ver dos motivos para usar degradados sintéticos en RNN: Para acelerar el entrenamiento, corrigiendo inmediatamente cada capa con gradiente predicho Para poder aprender secuencias más largas Veo problemas con los dos. Tenga en cuenta que realmente me gustan los degradados sintéticos y me gustaría implementarlos. Pero necesito entender dónde …

1
Cómo aplicar el gradiente de softmax en backprop
Recientemente hice una tarea donde tuve que aprender un modelo para la clasificación de 10 dígitos del MNIST. El HW tenía un código de andamiaje y se suponía que debía trabajar en el contexto de este código. Mi tarea funciona / pasa las pruebas, pero ahora estoy tratando de hacerlo …

3
Crear red neuronal para la función xor
Es un hecho bien conocido que una red de 1 capa no puede predecir la función xor, ya que no es separable linealmente. Intenté crear una red de 2 capas, utilizando la función sigmoide logística y el backprop, para predecir xor. Mi red tiene 2 neuronas (y un sesgo) en …
Al usar nuestro sitio, usted reconoce que ha leído y comprende nuestra Política de Cookies y Política de Privacidad.
Licensed under cc by-sa 3.0 with attribution required.