2
¿Por qué se usa ReLU como función de activación?
Las funciones de activación se utilizan para introducir no linealidades en la salida lineal del tipo w * x + b en una red neuronal. Lo que puedo entender intuitivamente para las funciones de activación como sigmoide. Entiendo las ventajas de ReLU, que evita las neuronas muertas durante la propagación …