Lo que sabemos
Según una página del Banco Mundial , "Hoy en día, hay alrededor de 200 millones de estudiantes de educación superior en el mundo, frente a los 89 millones en 1998". Al menos 1 de cada 100, como requisito matemático, tuvo que desarrollar una prueba de un teorema y vivir al menos 40 años después.
Aunque hay al menos 20 millones de redes neuronales que pueden probar un teorema, no cuentan con ejemplos que respondan afirmativamente a esta pregunta. Estas redes neuronales son biológicas, no artificiales, y en su mayoría han demostrado teoremas previamente probados, no la conjetura de Collatz o la conjetura de Riemann.
Lo que algunos creen
Aquellos que creen que el aprendizaje profundo de Q y los dispositivos basados en la atención se unirán a otros diseños de sistemas de aprendizaje hasta que las facultades del cerebro humano sean simuladas y quizás superadas, probablemente incluirían la demostración de teoremas como una de esas capacidades humanas. Estos probablemente declararían la lógica de predicados y la inferencia como otra función cognitiva compleja que se logrará en sistemas artificiales.
Aquellos que creen que algunas capacidades están imbuidas en humanos y son capacidades reservadas, pueden declarar que la lógica de predicado y la inferencia están reservadas solo para humanos.
Estado actual de progreso
No hay artículos académicos que indiquen la capacidad de probar incluso las pruebas más simples utilizando lógica de predicado e inferencia. Es posible que un gobierno o empresa privada haya logrado cierto nivel de éxito al hacerlo, pero esto no se ha revelado.
La idea de que las redes artificiales, si se desarrollan de manera apreciable, podrían superar los sistemas de producción, los sistemas de IA que se basan en producciones o reglas, en sus áreas de mayor efectividad, se propuso temprano en el desarrollo de la IA. Fue disputado entonces y ahora disputado, sin embargo, los argumentos no son matemáticos, por lo que no hay una fuerte indicación de que sea imposible.
Ciertamente, otros aspectos cognitivos del pensamiento humano son objetivos importantes de la investigación de IA. El diálogo, la educación automatizada, la planificación, el análisis estratégico y el pilotaje de vehículos son aspectos de mayor pensamiento que exigen más que DQN y los enfoques de red basados en la atención ahora pueden ofrecer, pero el esfuerzo de investigación en estas áreas es apreciable y está bien financiado.
Enfoque potencial
La investigación hacia habilidades cognitivas lógicas debería comenzar con pruebas ya conocidas, mucho más simples que las conjeturas mencionadas en la pregunta. Por ejemplo, se ha demostrado que la suma de dos enteros no negativos debe ser otro entero no negativo. En el cálculo de predicados, eso se puede representar como una cadena de caracteres.
∀ a ∈ C, b ∈ C: s = a + b⟹s ∈ C
Dice que ayb son miembros del conjunto de números de conteo, que la s, definida como la suma de los dos, también debe ser miembro del conjunto de números de conteo. Su prueba también se puede representar como una secuencia de cadenas de caracteres de cálculo de predicados de primer orden.
No pequeño proyecto de investigación
Tal ejemplo puede parecer simple para alguien que ha tomado años de cursos de matemáticas y ha construido pruebas. No es simple para un niño, y es muy difícil lograr que una red artificial converja a una función que aplique todas las reglas de inferencia lógica e incorpore meta-reglas para llegar a una prueba de un sistema formal como la aritmética de enteros.
Turing redes completas, como los RNN, sin duda tendrá ventajas sobre MLP (perceptrones multicapa). Las redes basadas en la atención pueden ser una opción de investigación razonable. Hay otros indicados en las referencias a continuación.
Se necesitaría una plataforma de computación paralela para la investigación, ya que el vector de entrada puede ser cientos de Kbytes. El tamaño de los ejemplos y cuántos serían necesarios es difícil de estimar sin tener uno o dos años en el proceso de investigación.
La definición de contar números, el signo más y el signo igual primero deben definirse, y esas definiciones y una serie de axiomas, postulados, lemas y corolarios deben ser parte del ejemplo de entrada en la forma formal, como la propuesta que debe ser demostrado anteriormente, junto con esa propuesta.
Y ese es el trabajo para preparar solo un ejemplo. Necesitaría miles para entrenar el conocimiento intuitivo sobre las reglas de inferencia en una red profunda. (Elegí la palabra INTUITIVO muy deliberadamente por razones teóricas que tomarían al menos cien páginas para explicarlo bien).
Este no es un proyecto pequeño ya que el conjunto de datos de ejemplo debe tener al menos unos pocos miles de casos, y cada caso, aunque puede compartir algo de teoría, debe configurarse para que la propuesta esté perfectamente formada y también se presente el cuerpo de teoría necesario. en forma perfecta en la entrada para cada iteración de entrenamiento.
Mi conjetura es que se necesitaría un equipo de investigadores brillantes con la comprensión adecuada de redes profundas, convergencia y cálculo de predicados alrededor de diez años para entrenar una red para dar pruebas viables en respuesta a propuestas matemáticas simples.
Pero no sería un logro pequeño
Puede parecer un esfuerzo absurdo para algunos, pero sería la primera vez que alguien le enseña a una computadora a ser lógico. Se necesitó la naturaleza justo debajo de la edad de la tierra para enseñar inferencia lógica a un organismo, Sócrates.
La gente supone que debido a que una computadora está compuesta de circuitos digitales que realizan lógica por diseño, las computadoras son lógicas. Cualquiera que haya estado en el desarrollo de software durante décadas con la inclinación a pensar más profundamente que piratear por diversión o dinero sabe de otra manera. Incluso después de una programación cuidadosa, las computadoras no simulan inferencia lógica y no pueden corregir su propio comportamiento programado para ningún error arbitrario. De hecho, la mayor parte del desarrollo de software actual es la corrección de errores.
Simular el pensamiento lógico sería un paso importante hacia la simulación de la cognición y la gama más amplia de capacidades humanas.
Referencias
Aprendiendo a componer redes neuronales para responder preguntas Jacob Andreas, Marcus Rohrbach, Trevor Darrell y Dan Klein UC, Berkeley 2016
https://arxiv.org/pdf/1601.01705.pdf
Aprendiendo múltiples capas de representación Geoffrey E. Hinton Departamento de Informática, Universidad de Toronto 2007
http://www.csri.utoronto.ca/~hinton/absps/ticsdraft.pdf
Neural Turing Machine (presentación de diapositivas) Autor: Alex Graves, Greg Wayne, Ivo Danihelka Presentado por: Tinghui Wang (Steve)
https://eecs.wsu.edu/~cook/aiseminar/papers/steve.pdf
Máquinas neuronales de Turing (papel) Alex Graves, Greg Wayne, Ivo Danihelka
https://pdfs.semanticscholar.org/c112/6fbffd6b8547a44c58b192b36b08b18299de.pdf
2014
Aprendizaje de refuerzo, Máquinas de Turing neuronal Wojciech Zaremba, Ilya Sutskever ICLR paper de la conferencia
https://arxiv.org/pdf/1505.00521.pdf?utm_content=buffer2aaa3&utm_medium=social&utm_source=twitter.com&utm_campaign=buffer
2016
Máquina dinámica de Turing neural con esquemas de direccionamiento continuo y discreto Caglar Gulcehre1, Sarath Chandar1, Kyunghyun Cho2, Yoshua Bengio1
https://arxiv.org/pdf/1607.00036.pdf
2017
Una red de inferencia neural autoconstructora en línea, inferencia y sus aplicaciones Chia-Feng Juang y Chin-Teng Lin Transacciones IEEE en sistemas difusos, v6, n1 1998
https://ir.nctu.edu.tw/bitstream/11536/ 32809/1 / 000072774800002.pdf
Secuencia gráfica cerrada Redes neuronales Yujia Li y Richard Zemel ICLR paper 2016 2016
https://arxiv.org/pdf/1511.05493.pdf
Construyendo máquinas que aprenden y piensan como las personas Brenden M. Lake, Tomer D. Ullman, Joshua B. Tenenbaum y Samuel J. Gershman Behavioral and Brain Sciences 2016
https://arxiv.org/pdf/1604.00289.pdf
Redes neuronales profundas pre-entrenadas dependientes del contexto para reconocimiento de voz de vocabulario grande George E. Dahl, Dong Yu, Li Deng y Alex Acero Transacciones IEEE sobre procesamiento de audio, lenguaje y lenguaje 2012
https://s3.amazonaws.com/ academia.edu.
Incorporación de entidades y relaciones para el aprendizaje y la inferencia en las bases del conocimiento Bishan Yang1, Wen-tau Yih2, Xiaodong He2, Jianfeng Gao2 y Li Deng2 ICLR paper 2015
https://arxiv.org/pdf/1412.6575.pdf
Un algoritmo de aprendizaje rápido para redes de creencias profundas Geoffrey E. Hinton, Simon Osindero, Yee-Whye Teh (comunicado por Yann Le Cun) Computación neuronal 18 2006
http://axon.cs.byu.edu/Dan/778/papers/Deep % 20Networks / hinton1 * .pdf
FINN: Un marco para una inferencia de red neuronal binaria rápida y escalable Yaman Umuroglu, et al 2016
https://arxiv.org/pdf/1612.07119.pdf
Del aprendizaje automático al razonamiento automático Léon Bottou 8/02/2011
https://arxiv.org/pdf/1102.1808.pdf
Aprendizaje profundo Yann LeCun1,2, Yoshua Bengio3 y Geoffrey Hinton4,5 Nature vol 521 2015
https://www.evl.uic.edu/creativecoding/courses/cs523/slides/week3/DeepLearning_LeCun.pdf