4
¿Por qué es tanh casi siempre mejor que sigmoide como función de activación?
En el curso de Redes neuronales y aprendizaje profundo de Andrew Ng en Coursera , dice que usar es casi siempre preferible a usar .tanhtanhtanhsigmoidsigmoidsigmoid La razón que da es que las salidas que usan centran alrededor de 0 en lugar de 's 0.5, y esto "hace que el aprendizaje …