Contestaré esta pregunta en varias partes:
¿Por qué los sistemas AGI deben tener sentido común?
Los humanos en la razón salvaje y se comunican usando el sentido común más que con una lógica estricta, puedes ver esto al notar que es más fácil apelar a la emoción de alguien que a la lógica. Por lo tanto, cualquier sistema que busque replicar la cognición humana (como en AGI) también debería replicar esta tendencia a usar el sentido común.
En términos más simples, desearíamos que nuestro sistema AGI nos pueda hablar en un lenguaje de sentido común simplemente porque eso es lo que entendemos mejor (de lo contrario, no entenderíamos nuestro AGI amigable, ¿verdad?). La teoría obtusa y la lógica estricta podrían ser técnicamente correctas, pero no apelan a nuestra comprensión.
¿No es el objetivo de AGI crear el sistema más avanzado cognitivamente? ¿Por qué el sistema AGI "más perfecto" debe tratar con tales imperfecciones e imprecisiones presentes en el sentido común?
Primero, podría parecer que la lógica del sentido común es "irracional". Quizás haya una forma matemática consistente de modelar el sentido común de tal manera que todas las sutilezas del sentido común se representen con rigor.
Segundo, el primer estudio de Inteligencia Artificial comenzó en el estudio de la ciencia cognitiva, donde los investigadores intentaron replicar "algoritmos de la mente", o más precisamente: procedimientos decidibles que replicaban el pensamiento humano. En ese sentido, el estudio de la IA no es crear el "agente cognitivo más supremo" sino simplemente replicar el pensamiento / comportamiento humano. Una vez que podamos replicar el comportamiento humano, tal vez podamos intentar crear algo sobrehumano dándole más poder computacional, pero eso no está garantizado.
Todavía no veo por qué se necesita sentido común en los sistemas AGI. ¿No se trata de que AGI sea el sistema computacional más inteligente y poderoso? ¿Por qué debería importarle o ajustarse a los límites de la comprensión humana, que requiere sentido común?
Quizás, entonces, tenga una comprensión un poco desalineada de lo que implica AGI. AGI no significa potencia computacional ilimitada (físicamente imposible debido a restricciones físicas en el cómputo como el límite de Bremermann ) o inteligencia ilimitada (quizás físicamente imposible debido a la restricción previa). Por lo general, solo significa "inteligencia general" artificial, significado general amplio y común.
Las consideraciones sobre los agentes ilimitados se estudian con más detalle en campos como la informática teórica (la teoría de tipos, creo), la teoría de la decisión y quizás incluso la teoría de conjuntos, donde podemos plantear preguntas sobre los agentes con poder computacional ilimitado. Podríamos decir que hay preguntas que incluso un sistema AGI con potencia ilimitada no puede responder debido al problema de detención , pero solo si las suposiciones en esos campos se corresponden con la estructura del AGI dado, lo que podría no ser cierto.
Para una mejor comprensión de lo que AGI podría implicar y sus objetivos, podría recomendar dos libros: Inteligencia Artificial: The Very Idea de John Haugeland para un enfoque más pragmático (tan pragmático como puede ser la filosofía AI, y Sobre el origen de los objetos por Brian Cantwell Smith por un enfoque más inclinado filosóficamente.
Como diversión aparte, la colección de Zen koan's: The Gateless Gate, incluye el siguiente pasaje: (citado y editado de wikipedia )
Un monje le preguntó a Zhaozhou, un maestro zen chino: "¿Tiene un perro la naturaleza de Buda o no?" Zhaozhou respondió: "Wú"
Wú (無) se traduce como "ninguno", "nonesuch" o "nada", que puede interpretarse como para evitar responder sí o no. Este individuo iluminado no busca responder estrictamente a todas las preguntas, sino solo responder de una manera que tenga sentido. Realmente no importa si el perro tiene la naturaleza búdica o no (lo que sea que signifique la naturaleza búdica), por lo que el maestro omite absolver la pregunta en lugar de resolverla.