Preguntas etiquetadas con activation-function


2
¿Qué es la activación de GELU?
Estaba revisando el documento BERT que usa GELU (Unidad lineal de error gaussiano) que establece la ecuación como que a su vez se aproxima aGELU(x)=xP(X≤x)=xΦ(x).GELU(x)=xP(X≤x)=xΦ(x). GELU(x) = xP(X ≤ x) = xΦ(x).0.5x(1+tanh[2/π−−−√(x+0.044715x3)])0.5x(1+tanh[2/π(x+0.044715x3)])0.5x(1 + tanh[\sqrt{ 2/π}(x + 0.044715x^3)]) ¿Podría simplificar la ecuación y explicar cómo se ha aproximado?



3
¿Cómo utilizar LeakyRelu como función de activación en la secuencia DNN en keras? ¿Cuándo funciona mejor que Relu?
¿Cómo se usa LeakyRelu como función de activación en secuencia DNN en keras? Si quiero escribir algo similar a: model = Sequential() model.add(Dense(90, activation='LeakyRelu')) ¿Cuál es la solución? ¿Poner LeakyRelu similar a Relu? La segunda pregunta es: ¿cuál es la mejor configuración general para ajustar los parámetros de LeakyRelu? ¿Cuándo …
Al usar nuestro sitio, usted reconoce que ha leído y comprende nuestra Política de Cookies y Política de Privacidad.
Licensed under cc by-sa 3.0 with attribution required.