¿Qué tipo de entorno simulado es lo suficientemente complejo como para desarrollar una IA general?


11

Imagine intentar crear un entorno virtual simulado que sea lo suficientemente complicado como para crear una "IA general" (que yo defino como una IA consciente de sí mismo) pero que sea lo más simple posible. ¿Cómo sería este entorno mínimo?

Es decir, un entorno que era solo un juego de ajedrez sería demasiado simple. Un programa de ajedrez no puede ser una IA general.

Un entorno con múltiples agentes jugando ajedrez y comunicando sus resultados entre sí. ¿Constituiría esto una IA general? (Si puede decir que un gran maestro de ajedrez que piensa en el ajedrez todo el día tiene 'IA general'? Durante su tiempo pensando en el ajedrez, ¿es diferente a una computadora de ajedrez?).

¿Qué pasa con un mundo sim-3D? Eso parece ser demasiado complicado. Después de todo, ¿por qué no puede existir una IA general en un mundo 2D?

¿Cuál sería un ejemplo de un entorno simple pero no demasiado simple para que la (s) IA (s) puedan tener conciencia de sí mismos?


Modifiqué mi respuesta para abordar más completamente el rango de preguntas que usted plantea.
DukeZhou

Supongo que la pregunta de la negación si el entorno crea IA a menos que finalmente Dios exista sin el entorno o creadores sucesivos de manera similar.
Bobs

La "IA consciente de sí mismo" no es más descriptiva que la "IA general". ¿Qué significa "autoconsciente"?
Dunk

Respuestas:


5

Creo que esta es una de las mejores preguntas relacionadas con AGI que he visto en este foro.

Me saltearé todas las temáticas sobre "qué es un AGI", "juego de simulación", ... Estos temas han sido discutidos durante décadas y hoy en día son, en mi opinión, un callejón sin salida.

Por lo tanto, solo puedo responder con mi experiencia personal:

Es un teorema básico en computación que cualquier cantidad de dimensiones, incluida la temporal, en un espacio de tamaño finito, puede reducirse a 1D.

Sin embargo, en ejemplos prácticos, la representación 1D se vuelve difícil de analizar y visualizar. Es un trabajo más práctico con gráficos, que puede verse como un intermedio entre 1D y 2D. Los gráficos permiten la representación de todos los hechos y relaciones necesarios.

Por ejemplo, si intentamos desarrollar un AGI capaz de trabajar en el área de las matemáticas, cualquier expresión (que los humanos escribimos en una representación 2D con racionales, subíndices, integrales, ...) puede representarse como 1D (como una expresión escrito en una fuente de programa), pero este 1D debe analizarse para llegar al gráfico que puede analizarse o ejecutarse. Por lo tanto, el gráfico que resulta después del análisis de la expresión es la representación más práctica.

Otro ejemplo, si queremos un agente que viaje a través de un mundo 3D, este mundo puede verse como un espacio vacío con objetos que tienen algunas propiedades. Nuevamente, después de la etapa inicial de análisis de escena y reconocimiento de objetos (el equivalente al analizador en el ejemplo anterior), llegamos a un gráfico.

Por lo tanto, para trabajar realmente en el área de AGI, sugiero omitir los problemas de análisis de escena, reconocimiento de objetos, reconocimiento de voz (AI estrecha) y trabajar directamente sobre los gráficos representativos.


1
Es interesante que hables de gráficos. Porque mi instinto me decía que algún tipo de entidad que navega por los nodos de un gráfico podría ser lo suficientemente complejo. Pero me preocupa que un gráfico finito con cosas finitas en curso sea bastante limitado. Pero de otra manera, nuestras propias vidas son bastante limitadas cuando lo piensas: comer, trabajar, dormir, repetir. Sin embargo, si las entidades tuvieran que competir (o colaborar) con otras entidades, tal vez se produciría un comportamiento más complejo con ellas tratando de adivinar entre ellas.
zooby

3

Creo que lo más importante es que tiene que simular el tiempo de alguna manera. Piensa en el chatbot consciente de ti mismo. Entonces, para ser "consciente de sí mismo", el entorno podría ser información que se alimenta a través del tiempo y que se puede distinguir como "propia" y "otra". Con eso supongo que quiero decir que "yo" es la parte que influye directamente y "otro" es la parte que está influenciada indirectamente o no influye en absoluto. Aparte de eso, probablemente pueda vivir dentro de entornos bastante abstractos. La razón por la que el tiempo es tan importante es que sin él el algoritmo cognitivo solo está resolviendo un problema matemático.


1
En teoría informática, el tiempo se reduce a la secuencia de eventos. Por lo tanto, un evento 1D (es decir, una cadena) que evoluciona en el tiempo puede verse como un evento 2D (matriz de cadena) o una secuencia 1D (secuencia de cadenas).
pasaba por aqui

1
No estoy de acuerdo con la idea de que el tiempo en el mundo real (o podría decirse que es uno artificial lo suficientemente interesante) puede descartarse adecuadamente como "simplemente otra dimensión". Se necesita al menos una dimensión de tiempo para admitir cualquier representación de entropía o cambio. Y yo diría que cualquier representación adecuada de sistemas dinámicos requiere una distinción adecuada de una dimensión temporal de una posición. Incluso su sugerencia de representación le da al orden de la secuencia un lugar especial.
42-

1
@ 42- Da la casualidad de que, en mis esfuerzos por definir formalmente la estructura topológica de Sudoku y Cuadrados Latinos como funciones de matriz probabilística utilizando la teoría de conjuntos, me golpeé contra una pared hasta que comencé a mirar a la Evolución Hamiltoniana y me di cuenta de t (tiempo, o, "giros" en la nueva concepción teórica del juego de matrices ortogonales) era el elemento que faltaba
DukeZhou

Pensando ahora en los sistemas dinámicos en la relatividad general. ¿Quizás necesita una métrica de "gravedad" para calcular un potencial de valor local? ¿Serían algunas configuraciones "agujeros negros"
42-

2

La IA general puede existir absolutamente en un mundo 2D, solo que una IA generalizada (definida aquí como "fuerza constante a través de un conjunto de problemas") en este contexto aún sería bastante distinta de una Inteligencia General Artificial , definida como "un algoritmo que puede realizar cualquier tarea intelectual que un humano pueda ".

Incluso allí, la definición de AGI es confusa, porque "¿qué humano?" (La inteligencia humana es un espectro, donde los individuos poseen diferentes grados de capacidad de resolución de problemas en diferentes contextos).


Conciencia artificial : Desafortunadamente, la autoconciencia / conciencia es un tema muy metafísico, distinto de la capacidad de resolución de problemas (inteligencia).

Definitivamente quieres mirar la " Sala China " y las refutaciones.


Probablemente valga la pena observar el principio holográfico : "un concepto en física por el cual un espacio se considera como un holograma de dimensiones n-1". Ciertamente, los modelos y los juegos pueden estructurarse de esta manera.

Otro lugar para explorar son las teorías del surgimiento de la superinteligencia en el juego infinito de la vida de Conway . (En pocas palabras, entiendo que una vez que los investigadores descubrieron cómo generar cualquier número dentro de los autómatas celulares, la posibilidad de una inteligencia emergente dado un tablero de juego de tamaño suficiente es al menos teóricamente sólida).


2

De las respuestas hasta ahora, la de @DukeZhou fue la más provocativa. Por ejemplo, la referencia a la crítica de la Sala China plantea la afirmación de Searle de que alguna forma de intencionalidad podría necesitar apoyo en el entorno artificial. Esto podría implicar la necesidad de un sistema de valores o un sistema de placer del dolor, es decir, algo en lo que se puedan "experimentar" o buscar activamente buenas consecuencias y evitar las malas consecuencias. O puede ser necesario reconocer algún potencial de extinción individual (muerte o terminación). La posibilidad de "ego-muerte"podría necesitar tener un alto valor negativo. Eso podría implicar que un mundo artificial debería incluir "otras mentes" u otros agentes, que el agente inteligente emergente o de aprendizaje podría observar (en cierto sentido) y "reflexionar", es decir, reconocer una inteligencia como la suya. En este sentido, el silogismo cartesiano "Pienso, luego existo" se transmuta en: yo (o más bien yo como una IA) veo evidencia de que otros piensan, y "por Dios," yo también puedo ". Esos "otros" podrían ser otros sistemas de aprendizaje (AGI) o algún contacto con entradas discretas de humanos mediadas por el entorno artificial. Discusión en Wikipedia de la "prueba de Turing inversa"

La mención de la dimensionalidad debería provocar una discusión sobre cuál sería la profundidad de representación requerida de una "física" del mundo externo a la IA. Alguna representación de tiempo y espacio parecería necesaria, es decir, alguna subestructura dimensional para el progreso hacia la consecución de objetivos. The Blocks World fue uno de los primeros problemas del juguete, cuya solución provocó optimismo en los años 60 y 70 del siglo pasado de que se estaban haciendo progresos sustanciales. No estoy al tanto de ningún esfuerzo por programar con dolor o placer el programa SHRDLU de esa época (sin bloqueos en los dedos del pie del programa), pero todas las representaciones interesantes de ciencia ficción de IA tienen algún reconocimiento de las consecuencias adversas "físicas" en el mundo real".

Editar: voy a agregar una necesidad de "entidades con características" en este entorno que podrían ser "percibidas" (por cualquiera de los "otros" que están interactuando con el AGI) como la entrada de datos para los esfuerzos de inducción, identificación e inferencia sobre las relaciones. Esto crea una base para una "experiencia" compartida.


¡Bienvenido a AI y gracias por contribuir! (El enlace "ego-muerte" está roto, pero no estaba seguro de si tenía la intención de vincular a la pregunta o la respuesta específica, por lo que retrasar la solución pendiente de aclaración). ¡Excelentes enlaces, por cierto! ¿Puedo preguntarle si su apodo es una referencia a la respuesta propuesta a la pregunta "por cuántos caminos debe caminar un hombre?" :)
DukeZhou

Realmente no. En Internet nadie sabe si eres una IA general.
42-

2

Aunque es una buena respuesta de @pasaba por aqui, estoy de acuerdo con @zooby en que un gráfico puede ser demasiado simplista. Si los humanos estuvieran en un entorno donde las opciones se ahogaron o hubieran tomado 5000 pasos no relacionados para construir un bote, nunca hubiéramos cruzado ningún mar. Creo que cualquier gráfico, si está diseñado a mano, no sería lo suficientemente complejo como para llamar al agente interno como AI general. El mundo necesitaría suficientes estados intermedios para que ya no se describiera mejor como un gráfico, sino al menos un espacio multidimensional.

Creo que hay 2 puntos que deberías considerar. Qué es "simple" y cuándo lo reconocerías como una "IA general". No creo que la IA consciente sea satisfactoria, ya que no podemos medir nada llamado conciencia; solo podemos ver su estado y su interacción con el medio ambiente.

Para 1. Yo diría que el mundo en el que vivimos es bastante simple. Hay 4 fuerzas de la naturaleza, algunas leyes de conservación y un montón de tipos de partículas que explican la mayoría de todo. Es solo que hay muchas de estas partículas y esto ha llevado a un mundo bastante complejo. Por supuesto, es costoso simularlo, pero podríamos tomar algunos atajos. La gente hace 200 años no necesitaría toda la mecánica cuántica para explicar el mundo. Si reemplazamos los protones, los neutrones y la fuerza fuerte con los átomos en la tabla periódica, en su mayoría estaríamos bien. El problema es que reemplazamos 3 leyes más generales con 100 instancias específicas. Para que el entorno simulado sea lo suficientemente complejo, creo que esta tendencia debe mantenerse.

Lo que me lleva a 2. Creo que solo estaríamos realmente satisfechos con el agente que expresa IA general cuando puede interactuar intencionalmente con el entorno de una manera que nos desconcierte, mientras se beneficia claramente de él (por lo tanto, no accidentalmente). Ahora, eso podría ser bastante difícil o tomar mucho tiempo, por lo que una condición más relajada sería construir herramientas que esperaríamos que construyera, mostrando así el dominio de su propio entorno. Por ejemplo, se han encontrado pruebas de botes en algún lugar entre hace 100k y 900k años, que es aproximadamente la misma escala de tiempo cuando los primeros humanos se desarrollaron. Sin embargo, aunque nos consideraríamos inteligentes, no estoy seguro de considerar que un agente de fabricación de barcos tenga inteligencia general, ya que parece una invención bastante simple. Pero creo que estaríamos satisfechos después de algunos inventos.

Así que creo que necesitaríamos un Sim como el mundo, que en realidad es mucho más complicado que el juego. Con miles de tipos de elementos, muchas instancias de cada elemento y suficientes grados de libertad para interactuar con todo. También creo que necesitamos algo que parezca familiar para reconocer a cualquier agente como inteligente. Por lo tanto, un mundo 3D, complicado, parecido a Minecraft, sería el mundo más simple en el que reconoceríamos la aparición de la inteligencia general.


0

La "inteligencia general artificial" es algo diferente de un agente que actúa de manera inteligente en un entorno. Porque de acuerdo con la literatura, estos agentes se denominan "IA estrecha". Un sistema AGI es el medio ambiente. Eso significa que el último desafío de Micromouse es un sistema AGI que tiene el objetivo de desarrollar sistemas de IA estrecha.

Desarrollar un AGI es igual a desarrollar una competencia de robótica. Está formalizado en un libro de reglas y actúa como un entorno para aprender, programar software y discutir los resultados. En cualquier caso, un sistema AGI es una competencia social, lo que significa que es atractivo para los equipos participar en la competencia. AGI no responde cómo realizar la inteligencia, es una prueba para medirla. Los llamados cerebros humanos, la arquitectura cognitiva y los solucionadores de problemas generales no se desarrollaron como una IA estrecha para actuar de manera inteligente, sino que se desarrollaron como una prueba de Turing para una máquina que es inteligente.

¿Cómo podemos medir con un programa de computadora si otro programa de computadora es inteligente? Una posibilidad es la teoría de la simulación humana. Eso significa que estamos probando si el programa de computadora se comporta como un ser humano, y la prueba de Turing tiene la obligación de probar la memoria a corto plazo, la memoria a largo plazo y la capacidad de aprender cosas nuevas. En su forma más fácil, la prueba de Turing se puede hacer con un formulario simple que debe completarse para ser humano, pero también es posible sacar al humano del circuito y usar una computadora para probar la inteligencia de otra computadora . Ese es el propósito, SOAR, OpenCog y AIXI fueron desarrollados.


Es difícil establecer la relación entre esta respuesta y la pregunta original.
pasaba por aqui
Al usar nuestro sitio, usted reconoce que ha leído y comprende nuestra Política de Cookies y Política de Privacidad.
Licensed under cc by-sa 3.0 with attribution required.