Lo que estabas leyendo se conoce como el potencial de acción . Es un mecanismo que gobierna cómo fluye la información dentro de una neurona.
Funciona así: las neuronas tienen un potencial eléctrico, que es una diferencia de voltaje dentro y fuera de la célula. También tienen un potencial de reposo predeterminado y un potencial de activación. La neurona tiende a moverse hacia el potencial de reposo si se deja sola, pero las activaciones eléctricas entrantes de las dendritas pueden cambiar su potencial eléctrico.
Si la neurona alcanza un cierto umbral en el potencial eléctrico (el potencial de activación), toda la neurona y sus axones de conexión pasan por una reacción en cadena de intercambio iónico dentro / fuera de la célula que resulta en una "onda de propagación" a través del axón.
TL; DR: una vez que una neurona alcanza un cierto potencial de activación, se descarga eléctricamente. Pero si el potencial eléctrico de la neurona no alcanza ese valor, entonces la neurona no se activa.
¿El cerebro humano usa una función de activación específica?
Las neuronas IIRC en diferentes partes del cerebro se comportan de manera un poco diferente, y la forma en que se formula esta pregunta suena como si se preguntara si hay una implementación específica de la activación neuronal (en lugar de que nosotros la modelemos).
Pero en general se comportan de manera relativamente similar entre sí (las neuronas se comunican entre sí a través de neuroquímicos, la información se propaga dentro de una neurona a través de un mecanismo conocido como potencial de acción ...) Pero los detalles y las diferencias que causan podrían ser significativos.
Existen varios modelos de neuronas biológicas , pero el modelo Hodgkin-Huxley es el más notable.
También tenga en cuenta que una descripción general de las neuronas no le da una descripción general de la dinámica neuronal a la cognición (comprender un árbol no le proporciona una comprensión completa de un bosque)
Pero, el método por el cual la información se propaga dentro de una neurona se entiende en general bastante bien como intercambio iónico de sodio / potasio.
(Potencial de activación) se parece mucho a ReLU ...
Es solo como ReLU en el sentido de que requieren un umbral antes de que algo suceda. Pero ReLU puede tener una salida variable, mientras que las neuronas son todo o nada.
También ReLU (y otras funciones de activación en general) son diferenciables con respecto al espacio de entrada. Esto es muy importante para backprop.
Esta es una función ReLU, con el eje X como valor de entrada y el eje Y como valor de salida.
Y este es el potencial de acción con el eje X como tiempo e Y como valor de salida.