¿Es AIXI realmente un gran problema en la investigación de inteligencia general artificial?
Sí, es una gran contribución teórica a AGI. AFAIK, es el intento más serio de construir un marco teórico o una base para AGI. Obras similares son las máquinas Gödel de Schmidhuber y la arquitectura SOAR .
AIXI es un marco abstracto y no antropomórfico para AGI que se basa en el campo de aprendizaje de refuerzo, sin algunas suposiciones habituales (por ejemplo, sin las suposiciones de Markov y ergodicidad , lo que garantiza que el agente pueda recuperarse fácilmente de cualquier error que haya cometido en el pasado). Aunque se han demostrado algunas propiedades de optimización de AIXI, es (Turing) indisputable (no puede ejecutarse en una computadora), por lo que tiene una utilidad práctica muy limitada. No obstante, en el libro de Hutter Inteligencia Artificial Universal: Decisiones secuenciales basadas en probabilidad algorítmica(2005), donde se prueban rigurosamente varias propiedades de AIXI, también se describe una versión computable pero intratable de AIXI, AIXItl. Además, en el artículo A Monte Carlo AIXI Approximation (2009), de Joel Veness et al., Se introduce una aproximación computable y manejable de AIXI. Entonces, ha habido algunos intentos de hacer que AIXI sea prácticamente útil.
El artículo ¿Qué es AIXI? - Una introducción al aprendizaje de refuerzo general (2015), de Jan Leike, que es uno de los contribuyentes al desarrollo y la evolución del marco AIXI, ofrece una introducción suave al agente AIXI. Vea también The AIXI Architecture en la Stanford Encyclopedia of Philosophy para una introducción posiblemente más suave a AIXI.
¿Puede considerarse como un concepto central para el campo?
Sí, la introducción de AIXI y la investigación relacionada ha contribuido a la evolución del campo AGI. Ha habido varias discusiones y artículos publicados, después de su introducción en 2000 por Hutter en el artículo A Theory of Universal Artificial Intelligence basado en la complejidad algorítmica .
Véase, por ejemplo, la sección 7, "Ejemplos de superinteligencias", del artículo Artificial General Intelligence and the Human Mental Model (2012), de Roman V. Yampolskiy y Joshua Fox. Consulte también https://wiki.lesswrong.com/wiki/AIXI, que contiene una discusión sobre algunos problemas relacionados con AIXI, que deben resolverse o posiblemente evitarse en futuros marcos AGI. Además, vea también este y estos artículos.
Si es así, ¿por qué no tenemos más publicaciones sobre este tema (o tal vez las tenemos y no estoy al tanto de ellas)?
Ha habido varias publicaciones, principalmente por Marcus Hutter e investigadores asociados. Puede ver las publicaciones de Marcus Hutter en la siguiente página web: http://www.hutter1.net/official/publ.htm .
Si está interesado en contribuir a esta teoría, hay varias formas. Si tiene una buena educación matemática, puede intentar resolver algunos de los problemas descritos aquí (que también se mencionan en el libro de Hutter de 2005 mencionado anteriormente). Además, también puede contribuir a nuevas aproximaciones o mejoras de aproximaciones existentes del agente AIXI. Finalmente, puede construir su nuevo marco AGI evitando los problemas asociados con el marco AIXI. Ver también proyectos promovidos por Hutter . Puede ser una buena idea tener en cuenta también, por ejemplo, las máquinas Gödel y el trabajo relacionado, antes de intentar introducir un nuevo marco (siempre que sea capaz de hacerlo).
Creo que esta teoría no ha atraído a más personas probablemente porque es altamente técnica y matemática (por lo que no es muy fácil de entender a menos que tenga una formación muy sólida en aprendizaje de refuerzo, teoría de probabilidad, etc.). También creo que la mayoría de las personas (en la comunidad de IA) no están interesadas en las teorías, pero se guían principalmente por resultados prácticos y útiles.