1
¿Cuál es la derivada de la función de activación ReLU?
¿Cuál es la derivada de la función de activación ReLU definida como: ReLU(x)=max(0,x)ReLU(x)=max(0,x) \mathrm{ReLU}(x) = \mathrm{max}(0, x) ¿Qué pasa con el caso especial donde hay una discontinuidad en la función en ?x=0x=0x=0