O que você estava lendo é conhecido como potencial de ação . É um mecanismo que governa como a informação flui dentro de um neurônio.
Funciona assim: os neurônios têm um potencial elétrico, que é uma diferença de voltagem dentro e fora da célula. Eles também têm um potencial de repouso padrão e um potencial de ativação. O neurônio tende a se mover em direção ao potencial de repouso se for deixado em paz, mas as ativações elétricas recebidas dos dendritos podem mudar seu potencial elétrico.
Se o neurônio atinge um certo limiar no potencial elétrico (o potencial de ativação), todo o neurônio e seus axônios conectores passam por uma reação em cadeia de troca iônica dentro / fora da célula que resulta em uma "onda de propagação" através do axônio.
TL; DR: Quando um neurônio atinge um certo potencial de ativação, ele descarrega eletricamente. Mas se o potencial elétrico do neurônio não atingir esse valor, o neurônio não será ativado.
O cérebro humano usa uma função de ativação específica?
Os neurônios do IIRC em diferentes partes do cérebro se comportam de maneira um pouco diferente, e a maneira como essa pergunta é formulada soa como se você estivesse perguntando se existe uma implementação específica de ativação neuronal (em vez de modelá-la).
Mas, em geral, comportam-se relativamente semelhantes entre si (os neurônios se comunicam por meio de neuroquímicos, as informações se propagam dentro de um neurônio por meio de um mecanismo conhecido como potencial de ação ...) Mas os detalhes e as diferenças que causam podem ser significativos.
Existem vários modelos de neurônios biológicos , mas o modelo Hodgkin-Huxley é o mais notável.
Observe também que uma descrição geral dos neurônios não fornece uma descrição geral da dinâmica neuronal à la cognição (compreender uma árvore não fornece uma compreensão completa de uma floresta)
Mas, o método pelo qual a informação se propaga dentro de um neurônio é geralmente bem entendido como troca iônica sódio / potássio.
(Potencial de ativação) soa muito como ReLU ...
É como ReLU no sentido de que eles exigem um limite antes que algo aconteça. Mas a ReLU pode ter saída variável enquanto os neurônios são tudo ou nada.
Também o ReLU (e outras funções de ativação em geral) são diferenciáveis em relação ao espaço de entrada. Isso é muito importante para o backprop.
Esta é uma função ReLU, com o eixo X sendo o valor de entrada e o eixo Y sendo o valor de saída.
E este é o potencial de ação com o eixo X sendo o tempo e Y sendo o valor de saída.