Digamos que tenemos una representación vectorial de cualquier número entero de magnitud n, V_n
Este vector es la entrada a un algoritmo de aprendizaje automático.
Primera pregunta: ¿Para qué tipo de representaciones es posible aprender la primalidad / composición de n usando una red neuronal o algún otro mapeo ML de vector a bit? Esto es puramente teórico: la red neuronal podría tener un tamaño ilimitado.
Ignoremos las representaciones que ya están relacionadas con las pruebas de primalidad como: la lista nula de factores separados de n, o la existencia de un testigo compuesto como en Miller Rabin. En cambio, centrémonos en representaciones en diferentes radios, o representaciones como vectores de coeficientes de polinomios (posiblemente multivariados). U otros exóticos como se postulan.
Segunda pregunta: ¿para qué tipos, si los hay, de algoritmo ML aprenderá esto será imposible independientemente de los detalles del vector de representación? Nuevamente, dejemos de lado las representaciones prohibidas por la trivialidad de los ejemplos que se dan arriba.
La salida del algoritmo de aprendizaje automático es un solo bit, 0 para primo, 1 para compuesto.
El título de esta pregunta refleja mi evaluación de que el consenso para la pregunta 1 es "desconocido" y el consenso para la pregunta 2 es "probablemente la mayoría de los algoritmos de ML". Estoy preguntando esto porque no sé más que esto y espero que alguien pueda señalar el camino.
La principal motivación, si hay una, de esta pregunta es: ¿existe un límite de 'información teórica' para la estructura del conjunto de números primos que pueden capturarse en una red neuronal de un tamaño particular? Como no soy experto en este tipo de terminología, permítanme reformular esta idea varias veces y ver si obtengo una aproximación de Montecarlo al concepto: ¿cuál es la complejidad algorítmica del conjunto de números primos? ¿Se puede utilizar el hecho de que los primos son diofantina enumerables recursivamente (y pueden satisfacer una ecuación de diofantina grande particular ) para capturar la misma estructura en una red neuronal con las entradas y salidas descritas anteriormente.