¿Cuál es la derivada de la función de activación ReLU?


15

¿Cuál es la derivada de la función de activación ReLU definida como:

ReLU(x)=max(0,x)

¿Qué pasa con el caso especial donde hay una discontinuidad en la función en ?x=0

Respuestas:


17

La derivada es:

f(x)={0if x<01if x>0

Y sin definir en .x=0

La razón por la que no está definida en es que sus derivadas izquierda y derecha no son iguales.x=0


1
Entonces, en la práctica (implementación), ¿uno solo elige o para el caso ? 1 x = 001x=0
Tom Hale

2
La convención es que drdx = 1 (x> 0)
neuroguy123

@TomHale ¿por qué no usar ? La implementación práctica es otra cuestión y merece una nueva pregunta. Esto es solo la matemática. f(0)=12
Jim

3
@TomHale por cierto, vea la respuesta de Nouroz Rahman en quora.com/… : "[...] En mi opinión, en las funciones de biblioteca incorporadas (por ejemplo tf.nn.relu()
Jim
Al usar nuestro sitio, usted reconoce que ha leído y comprende nuestra Política de Cookies y Política de Privacidad.
Licensed under cc by-sa 3.0 with attribution required.