15 ¿Cuál es la derivada de la función de activación ReLU definida como: ReLU(x)=max(0,x)ReLU(x)=max(0,x) ¿Qué pasa con el caso especial donde hay una discontinuidad en la función en ?x=0x=0 self-study neural-networks — Tom Hale fuente
17 La derivada es: f(x)={01if x<0if x>0f(x)={0if x<01if x>0 Y sin definir en .x=0x=0 La razón por la que no está definida en es que sus derivadas izquierda y derecha no son iguales.x=0x=0 — Jim fuente 1 Entonces, en la práctica (implementación), ¿uno solo elige o para el caso ? 1 x = 00011x=0x=0 — Tom Hale 2 La convención es que drdx = 1 (x> 0) — neuroguy123 @TomHale ¿por qué no usar ? La implementación práctica es otra cuestión y merece una nueva pregunta. Esto es solo la matemática. f(0)=12f(0)=12 — Jim 3 @TomHale por cierto, vea la respuesta de Nouroz Rahman en quora.com/… : "[...] En mi opinión, en las funciones de biblioteca incorporadas (por ejemplo tf.nn.relu() — Jim