Está provado que as redes neurais com pesos racionais têm o poder computacional da computabilidade da Universal Turing Machine Turing com redes neurais . Pelo que entendi, parece que o uso de pesos com valor real gera ainda mais poder computacional, embora eu não tenha certeza disso.
No entanto, existe alguma correlação entre o poder computacional de uma rede neural e sua função de ativação? Por exemplo, se a função de ativação compara a entrada com um limite de uma sequência de Specker (algo que você não pode fazer com uma máquina de Turing normal, certo?), Isso torna a rede neural computacionalmente "mais forte"? Alguém poderia me indicar uma referência nessa direção?