Está comprobado que las redes neuronales con pesos racionales tienen el poder computacional de la máquina universal de Turing Computabilidad de Turing con redes neuronales . De lo que obtengo, parece que el uso de pesos con valor real produce aún más poder computacional, aunque no estoy seguro de esto.
Sin embargo, ¿hay alguna correlación entre el poder computacional de una red neuronal y su función de activación? Por ejemplo, si la función de activación compara la entrada con un límite de una secuencia de Specker (algo que no puede hacer con una máquina de Turing normal, ¿verdad?), ¿Esto hace que la red neuronal sea computacionalmente "más fuerte"? ¿Podría alguien señalarme una referencia en esta dirección?