1
¿Qué sucede cuando mezclo las funciones de activación?
Hay varias funciones de activación, como ReLU, sigmoid o . ¿Qué sucede cuando mezclo las funciones de activación?tanhtanh\tanh Recientemente descubrí que Google ha desarrollado la función de activación Swish que es (x * sigmoide). Al alterar la función de activación, ¿puede aumentar la precisión en pequeños problemas de redes neuronales …