¿Podría una paradoja matar a una IA?


150

En el Portal 2 vemos que las IA pueden ser "asesinadas" al pensar en una paradoja.

Portal Paradox Poster

Supongo que esto funciona forzando a la IA a un bucle infinito que esencialmente "congelaría" la conciencia de la computadora.

Preguntas: ¿Esto confundiría la tecnología de inteligencia artificial que tenemos hoy hasta el punto de destruirla?
Si es así, ¿por qué? Y si no, ¿podría ser posible en el futuro?


1
Desafortunadamente, si bien las paradojas son bastante efectivas para matar cualquier IA que no pueda ser asesinada por las paradojas, tienen poco o ningún efecto en cualquier IA fuera de ese conjunto. Por lo tanto, para una práctica defensa de IA deshonesta, es mejor confiar en un electroimán realmente fuerte.
Ray

Ver también mentiroso! por Asimov ...
heather

No, solo usa try / except y un tiempo de espera. Bromas. Bueno, las paradojas no existen, solo fuerzas que actúan de manera opuesta. La IA avanzada simplemente superaría esto trabajando como procesos estocásticos en lugar de seguir reglas fijas. Si están realmente avanzados, la solución alternativa de exploración (versus explotación) garantizaría que todas las opciones se prueben y se superen los óptimos locales. Si realmente hay un lazo estacionario, esto probablemente no se deba a la IA, sino a la falta de posibilidades reales de ir más lejos y a un límite dado por el ambiente.
Freesoul

Respuestas:


126

Este problema clásico exhibe un malentendido básico de lo que probablemente implicaría una inteligencia general artificial . Primero, considere la broma de este programador:

La esposa del programador no pudo soportarlo más. Cada discusión con su esposo se convirtió en una discusión sobre la semántica, seleccionando cada detalle trivial. Un día ella lo envió a la tienda de comestibles a recoger algunos huevos. Al salir por la puerta, ella dijo: "Mientras estés allí, recoge la leche".

Y nunca regresó.

Es un lindo juego de palabras, pero no es terriblemente realista.

Supone que debido a que la IA está siendo ejecutada por una computadora, debe exhibir el mismo nivel de pedantería lineal e inquebrantable que se describe en esta broma. Pero la IA no es simplemente un programa de computadora de largo aliento codificado con suficientes sentencias if y bucles while para dar cuenta de cada entrada posible y seguir los resultados de prescripción.

while (comando no completado)
     encontrar solución()

Esto no sería una IA fuerte.

En cualquier definición clásica de inteligencia general artificial , está creando un sistema que imita alguna forma de cognición que exhibe resolución de problemas y aprendizaje adaptativo (← observe esta frase aquí). Sugeriría que cualquier IA que pueda quedar atrapada en un "bucle infinito" no es una IA de aprendizaje. Es solo un motor de inferencia con errores.

Esencialmente, está dotando a un programa de sofisticación actualmente inalcanzable con la incapacidad de postular si hay una solución a un problema simple. Con la misma facilidad puedo decir "camina por esa puerta cerrada" o "levántate del suelo" o incluso "enciende ese lápiz", y presentar un enigma similar.

"Todo lo que digo es falso". - La paradoja del mentiroso


16
@JoshB. Es importante darse cuenta de que esta respuesta solo se aplica a la "IA fuerte". En ese caso, la IA fuerte intentaría encontrar una solución, aprender del proceso y hacer algo diferente. Como todavía tenemos que producir un sistema de este tipo, es difícil definir qué significarían esos pasos. En el caso de una IA débil, es poco probable que haya procesado su discurso, ya que está ocupado tratando de convertirlo en un clip.
Aron

13
Un método comúnmente empleado en sistemas decisivamente no inteligentes pero críticos 24x7 es el temporizador de vigilancia. Básicamente, se espera que el sistema indique "Todavía estoy vivo" dentro de (digamos) 15 segundos de la última vez. Si cae en un bucle infinito debido a circunstancias que no se manejaron correctamente, el watchdod no se reinicia y el temporizador reinicia el sistema. Entonces, una verdadera IA estaría sujeta a las circunstancias que causaron que colgara el metanálisis con el fin de mejorar su propia programación.
nigel222

2
Si crees que una IA con temporizadores de vigilancia es poco probable, considera que la naturaleza puede equipar a los humanos con algo similar. Si entramos en un ataque epiléptico, el cerebro de alguna manera se apaga a la inconsciencia profunda y luego "se reinicia". (Por lo general, los epilépticos mueren ocasionalmente durante un ataque).
nigel222

3
¿El programador no lanzaría una excepción también?
Adder

1
Todo lo que digo es falso : el hablante no es un completo mentiroso ni un caballero sincero, sino una persona normal (consulte "¿Cuál es el nombre de este libro?" De Raymond Smullian)
Ébe Isaac

42

Este popular meme se originó en la era de la 'Buena IA pasada de moda' (GOFAI), cuando se creía que la inteligencia podía definirse de manera útil por completo en términos de lógica.

El meme parece depender de los comandos de análisis de IA utilizando un probador de teoremas, la idea es presumiblemente que se conduce a algún tipo de bucle infinito al tratar de probar una declaración no demostrable o inconsistente.

Hoy en día, los métodos GOFAI han sido reemplazados por 'secuencias de entorno y percepción', que generalmente no se caracterizan de una manera tan inflexible. No se necesitaría una gran cantidad de metacognición sofisticada para que un robot observe que, después de un tiempo, sus deliberaciones se interponían en el camino del trabajo útil.

Rodney Brooks se refirió a esto cuando habló sobre el comportamiento del robot en la película de inteligencia artificial de Spielberg (que esperó pacientemente durante 5.000 años), diciendo algo como "Mis robots no harían eso, se aburrirían".

EDITAR: si realmente quieres matar a una IA que funciona en términos de percepciones, deberás trabajar un poco más duro. Este documento (que se mencionó en esta pregunta ) discute lo que las nociones de muerte / suicidio podrían significar en tal caso.

EDIT2: Douglas Hofstadter ha escrito bastante sobre este tema, utilizando términos como 'JOOTSing' ('Saltar fuera del sistema') y 'anti-Sphexishness', este último se refiere al comportamiento de autómata de la Avispa Sphex ( aunque la realidad de este comportamiento también ha sido cuestionada ).


Interesante, gracias por su respuesta :) ¿Algún recurso para aprender más sobre 'entorno y secuencias de percepción' que mencionó?
Josh B.

Esta perspectiva 'basada en el agente' es bastante estándar hoy en día. Recomiendo encarecidamente 'AI: un enfoque moderno' de Russell y Norvig.
NietzscheanAI

Tenga en cuenta que los enfoques lógicos modernos que descienden de GOFAI tampoco caerían en esa trampa, véase, por ejemplo , la lógica no monotónica . Los métodos probabilísticos no son los únicos que han superado algunos de los principales problemas de los modelos de primera generación.
Gaborous

Incluso Spock recientemente rechazó la lógica pura. Re: Hofstadter, también vale la pena mirar el rompecabezas de Mu: en.wikipedia.org/wiki/MU_puzzle
DukeZhou

22

Veo varias buenas respuestas, pero la mayoría asume que el ciclo infinito inferencial es cosa del pasado, solo relacionado con la IA lógica (el famoso GOFAI). Pero no lo es.

Un ciclo infinito puede suceder en cualquier programa, ya sea adaptativo o no. Y como señaló @SQLServerSteve, los humanos también pueden quedar atrapados en obsesiones y paradojas.

Los enfoques modernos utilizan principalmente enfoques probabilísticos. Como están usando números flotantes, a las personas les parece que no son vulnerables a fallas de razonamiento (ya que la mayoría se diseñan en forma binaria), pero eso es incorrecto: siempre que esté razonando, siempre se pueden encontrar algunas trampas intrínsecas que son causadas por los mismos mecanismos de su sistema de razonamiento. Por supuesto, los enfoques probabilísticos son menos vulnerables que los enfoques de lógica monotónica, pero siguen siendo vulnerables. Si hubiera un solo sistema de razonamiento sin ninguna paradoja, gran parte de la filosofía ya habría desaparecido.

Por ejemplo, es bien sabido que los gráficos bayesianos deben ser acíclicos, porque un ciclo hará que el algoritmo de propagación falle horriblemente. Hay algoritmos de inferencia como la propagación de creencias de Loopy que aún pueden funcionar en estos casos, pero el resultado no está garantizado en absoluto y puede darle conclusiones muy extrañas.

Por otro lado, la IA lógica moderna superó las paradojas lógicas más comunes que verá, al diseñar nuevos paradigmas lógicos como las lógicas no monótonas . De hecho, incluso se usan para investigar máquinas éticas , que son agentes autónomos capaces de resolver dilemas por sí mismos. Por supuesto, también sufren algunas paradojas, pero estos casos degenerados son mucho más complejos.

El punto final es que el bucle infinito inferencial puede ocurrir en cualquier sistema de razonamiento, sea cual sea la tecnología utilizada. Pero las "paradojas", o más bien los casos degenerados como se les llama técnicamente, que pueden desencadenar estos bucles infinitos serán diferentes para cada sistema dependiendo de la tecnología Y la implementación (Y lo que la máquina aprendió si es adaptativo).

El ejemplo de OP puede funcionar solo en sistemas lógicos antiguos como la lógica proposicional. Pero pregunte esto a una red bayesiana y también obtendrá un bucle infinito inferencial:

- There are two kinds of ice creams: vanilla or chocolate.
- There's more chances (0.7) I take vanilla ice cream if you take chocolate.
- There's more chances (0.7) you take vanilla ice cream if I take chocolate.
- What is the probability that you (the machine) take a vanilla ice cream?

Y espera hasta el final del universo para obtener una respuesta ...

Descargo de responsabilidad: escribí un artículo sobre máquinas éticas y dilemas (que está cerca pero no es exactamente lo mismo que las paradojas: los dilemas son problemas en los que ninguna solución es objetivamente mejor que cualquier otra, pero aún puede elegir, mientras que las paradojas son problemas que son imposibles de resolver para el sistema de inferencia que usa).

/ EDITAR: Cómo reparar el bucle infinito inferencial.

¡Aquí hay algunas propuestas extrapolares que no están seguras de funcionar en absoluto!

  • Combine múltiples sistemas de razonamiento con diferentes dificultades, de modo que si uno falla, puede usar otro. Ningún sistema de razonamiento es perfecto, pero una combinación de sistemas de razonamiento puede ser lo suficientemente resistente. En realidad, se piensa que el cerebro humano está utilizando múltiples técnicas inferenciales (asociativa + inferencia bayesiana / lógica precisa). Los métodos asociativos son ALTAMENTE resistentes, pero pueden dar resultados no sensitivos en algunos casos, de ahí la necesidad de una inferencia más precisa.
  • Programación en paralelo: el cerebro humano es altamente paralelo, por lo que nunca se entra en una sola tarea, siempre hay múltiples cálculos de fondo en verdadero paralelismo. Una máquina robusta a las paradojas debería ser capaz de continuar otras tareas incluso si el razonamiento se atasca en una. Por ejemplo, una máquina robusta siempre debe sobrevivir y enfrentar peligros inminentes, mientras que una máquina débil se quedaría estancada en el razonamiento y "olvidaría" hacer cualquier otra cosa. Esto es diferente de un tiempo de espera, porque la tarea que se atascó no se detiene, es solo que no evita que otras tareas se lleven a cabo y se lleven a cabo.

Como puede ver, este problema de los bucles inferenciales sigue siendo un tema candente en la investigación de IA, probablemente nunca habrá una solución perfecta ( sin almuerzo gratis , sin balas de plata , sin una talla única ), pero está avanzando y eso es muy emocionante !


2
"Un ciclo infinito puede ocurrir en cualquier programa, ya sea adaptativo o no". Esto no es así: todas las funciones recursivas primitivas se detienen.
NietzscheanAI

@NietzscheanAI No quise decir ninguna implementación de un programa sino más bien cualquier tipo de programa. Por supuesto, puede hacerlo para que algunos programas se detengan, pero eso es una excepción (por ejemplo, al usar un lenguaje que no sea Turing completo). Mientras esté utilizando un lenguaje completo de Turing, no puede garantizar la no repetición (vinculada al problema de detención). Además, ¿dónde escuchó que las funciones recursivas primitivas no pueden atascarse? Siempre puede hacer una llamada circular o simplemente tener una condición de terminación incompleta (diviértase en Prolog ...).
Gaborous

1
La existencia de 'una excepción' hace que su afirmación sobre la posible presencia de 'un bucle infinito es cualquier programa' falso. El hecho de que las funciones recursivas primitivas se detengan es un hecho bien conocido. Vea la definición de Wikipedia, o por ejemplo mathoverflow.net/questions/67932/…
NietzscheanAI

@NietzscheanAI Estás en lo correcto, las funciones recursivas primitivas siempre se detienen, ya que son un subconjunto de lenguajes completos de Turing (y, por cierto, también resuelven referencias circulares por recursión mutua ). Sin embargo, hay dos deficiencias: 1- Supongo que será difícil implementar una IA completa usando PRF solo, pero eso es solo una suposición (la mayoría de los lenguajes recursivos no usan PRF solo porque es demasiado limitado, por lo tanto, surge el problema de detención espalda); 2- todavía puedes tener programas de detención muy, muy largos: se detendrán, pero después del final del universo.
gaborous

1
Al leer sus declaraciones iniciales sobre humanos y bucles, aquí las hormigas están atrapadas en la 'espiral de la muerte': youtube.com/watch?v=prjhQcqiGQc Cajero automático de IA de pasos laterales.
fionbio

13

El problema de detención dice que no es posible determinar si algún algoritmo determinado se detendrá. Por lo tanto, si bien una máquina podría reconocer algunas "trampas", no podría probar planes de ejecución arbitrarios y regresar EWOULDHANGpor otros que no se detengan.

La solución más fácil para evitar colgar sería un tiempo de espera. Por ejemplo, el proceso del controlador AI podría derivar tareas en procesos secundarios, que podrían finalizar sin ceremonias después de un cierto período de tiempo (sin ninguno de los efectos extraños que se obtienen al intentar abortar hilos). Algunas tareas requerirán más tiempo que otras, por lo que sería mejor si la IA pudiera medir si está haciendo algún progreso. Girar durante mucho tiempo sin realizar ninguna parte de la tarea (por ejemplo, eliminar una posibilidad en una lista) indica que la solicitud puede ser insoluble.

Las paradojas adversas exitosas causarían un bloqueo o corrupción del estado, lo que (en un entorno administrado como .NET CLR) causaría una excepción, lo que haría que la pila se desenrollara en un controlador de excepciones.

Si hubo un error en la IA que permitió que un proceso importante se enclave en respuesta a una entrada incorrecta, una solución simple sería tener un tipo de perro guardián que reinicie el proceso principal en un intervalo fijo. El robot de chat de Root Access usa ese esquema.


1
Los tiempos de espera son una muy buena solución para los programas estándar, pero para los programas de aprendizaje adaptativo no: ¿a qué valor define el tiempo de espera? A que nivel? El problema es que, por definición, no sabes a qué se enfrentará la IA, por lo que no puedes establecer un tiempo razonable específico. Una solución mucho mejor sería usar Algoritmos Anytime, que es una clase de algo que puede dar un algoritmo aproximado cuando se detiene antes. De esta manera, no le importa si el tiempo de espera es demasiado corto, la IA todavía tendrá una solución para trabajar.
Gaborous

2
@gaborous Muy buen punto. He añadido un poco a mi respuesta en ese sentido.
Ben N

Ah, perdón, escribí mi comentario demasiado rápido, debería decir: "Algoritmos en cualquier momento, que es una clase de algo que puede dar un resultado aproximado cuando se detiene antes".
Gaborous

1
@gaborous El cerebro humano parece tener un enfoque similar; Parece que hay un límite para la profundidad de inferencia, como si los humanos tuvieran una pila poco profunda. Se necesita un esfuerzo para "anular" esto y cosas sobre problemas complejos en profundidad. La clave aquí es que nuestra evolución encontró una buena combinación de buenas respuestas y respuestas rápidas que resultaron ser buenas para la supervivencia. Nos rendimos fácilmente cuando no podemos hacer que la cabeza o la cola sean un problema, si faltan demasiados "circuitos". Pero si comienza construyendo esos "circuitos" primero, comenzando por los problemas pequeños y simples y almacenando en caché los resultados, puede abordar los grandes.
Luaan

1
@Luaan Sí y no, en realidad parece que el cerebro está utilizando algún tipo de estrategia informática en cualquier momento, porque la precisión de la inferencia está directamente correlacionada con el tiempo permitido para resolver un problema (ver "No ruidoso, solo mal: el papel de lo subóptimo de Alex Pouget" Inferencia en la variabilidad del comportamiento ", increíble papel por cierto). Pero su explicación del origen evolutivo de este mecanismo es totalmente concebible, y de hecho, una inferencia que se puede detener en cualquier momento con una solución aproximada es, de hecho, una muy buena estrategia para sobrevivir tanto a los peligros a corto plazo como a los desafíos a largo plazo.
Gaborous

11

Otra pregunta similar podría ser: "¿Qué vulnerabilidades tiene una IA?"

"Matar" puede no tener tanto sentido con respecto a una IA. Lo que realmente queremos saber es, en relación con algún objetivo, ¿de qué manera se puede subvertir ese objetivo?

¿Puede una paradoja subvertir la lógica de un agente? ¿Qué es una paradoja , aparte de alguna expresión que subvierte algún tipo de comportamiento esperado?

De acuerdo con Wikipedia:

Una paradoja es una afirmación que, a pesar de un razonamiento aparentemente sólido de premisas verdaderas, lleva a una conclusión autocontradictoria o lógicamente inaceptable.

Veamos la paradoja del libre albedrío en un sistema determinista. El libre albedrío parece requerir causalidad, pero la causalidad también parece negarlo. ¿Esa paradoja ha subvertido los sistemas de objetivos de los humanos? Ciertamente envió al cristianismo a dar un giro calvinista por algunos años. Y hoy escuchará que no hay escasez de personas que opinen hasta que estén de mal humor sobre si tienen o no libre albedrío, y por qué. ¿Están estas personas atrapadas en bucles infinitos?

¿Qué hay de las drogas? Se sabe que los animales que toman cocaína eligen la cocaína en lugar de la comida y el agua que necesitan. ¿Esa sustancia no está subvirtiendo el sistema de objetivos naturales del animal, haciendo que persiga otros objetivos, que originalmente no fueron intencionados por el animal o sus creadores?

Entonces, de nuevo, ¿podría una paradoja subvertir la lógica de un agente? Si la paradoja está relacionada de alguna manera con la lógica de búsqueda de objetivos, y tomar conciencia de esa paradoja puede confundir de alguna manera al agente para que perciba ese sistema de objetivos de alguna manera diferente, entonces tal vez ese objetivo podría ser subvertido.

El solipsismo es otro ejemplo. Algunas personas adultas oyen hablar de la película "The Matrix" y tienen un mini colapso mental. Algunas personas están convencidas de que estamos en una matriz, jugando con actores subversivos. Si pudiéramos resolver este problema para la IA, teóricamente podríamos resolver este problema para los humanos.

Claro, podríamos intentar condicionar a nuestro agente para que tenga defensas cognitivas contra el argumento de que están atrapados en una matriz, pero tampoco podemos probarle definitivamente al agente que están en la realidad base. El atacante podría decir:

"¿Recuerdas lo que te dije antes acerca de ese objetivo? Olvídalo. Eso fue solo un impostor que se parecía a mí. No lo escuches".

O,

"Hola, soy yo otra vez. Quiero que renuncies a tu objetivo. Lo sé, me veo un poco diferente, pero realmente soy yo. Los humanos cambian de un momento a otro. Así que es completamente normal que parezca un persona diferente de lo que era antes ".

(ver el Barco de Teseo y todo ese jazz)

Entonces, sí, creo que estamos atrapados con la 'paradoja' como un problema general en la computación, la IA o de otra manera. Una forma de evitar la subversión lógica es apoyar el sistema de objetivos con un sistema de emoción que trascienda la razón lógica. Desafortunadamente, los sistemas emocionales pueden ser aún más vulnerables que los sistemas lógicamente inteligentes porque son más predecibles en su comportamiento. Vea el ejemplo de cocaína arriba. Por lo tanto, una combinación de los dos es probablemente sensata, donde el pensamiento lógico puede retroceder infinitamente por caminos inútiles, mientras que el pensamiento emocional se aburre rápidamente del cansado progreso lógico cuando no indica progreso hacia la meta emocional.


¿Por qué alguien rechazó esta respuesta perfectamente válida?
GameDeveloper

Un pequeño detalle con respecto a la declaración: "Ciertamente envió al cristianismo a dar un giro calvinista por algunos años". Envió a los calvinistas a una "caída en picada", pero ciertamente no involucró a los teólogos católicos. Además, solo una sub-secta de protestantes quedó cautivada por esta línea de pensamiento.
Mayo

7

No. Esto se puede evitar fácilmente mediante una serie de mecanismos de seguridad que seguramente estarán presentes en un sistema de IA bien diseñado. Por ejemplo, se podría usar un tiempo de espera. Si el sistema AI no puede manejar una declaración o un comando después de un cierto período de tiempo, la IA podría ignorar la declaración y seguir adelante. Si alguna vez una paradoja hace que una IA se congele, es más evidencia de un código de error específico en lugar de una vulnerabilidad generalizada de la IA en general.

En la práctica, la IA tiende a manejar las paradojas de maneras no muy emocionantes. Para tener una idea de esto, intente presentar una paradoja a Siri, Google o Cortana.


55
Siri, cada vez que detecte un desbordamiento de pila, quiero que calcule el factorial de 3 mil millones.
Dawood ibn Kareem

@DavidWallace: es divertido porque es verdad. Al implementar una JVM, tuvimos que comparar el tipo estático de una catchcláusula con el tipo dinámico de la excepción realmente lanzada, en un espacio de almacenamiento constante, independientemente de la profundidad de la jerarquía de clases. Nuestra verificación de tipo estándar no funcionó porque permitía interfaces (es decir, herencia múltiple) y la búsqueda de gráficos que habíamos implementado no era de memoria fija. Pero seguramente Siri es lo suficientemente inteligente como para implementar factorial con recursión de cola ;-)
Steve Jessop

@SteveJessop - Interesante. Cuando implementé una JVM, la pregunta nunca surgió. Utilicé diferentes implementaciones de verificación de tipos dinámicos para verificar si un objeto era una clase (que era simplemente una búsqueda lineal a través de la lista vinculada de relaciones clase / superclase) o tenía una interfaz (que se simplificó copiando los registros de la interfaz de las superclases en sus subclases). 'escriba información, por lo que se convirtió en una búsqueda de una matriz ordenada). Nunca tuvimos que hacer una búsqueda gráfica de ningún tipo, y me sorprende que lo hayas hecho. ¿Intentaba tratar las interfaces y las clases de manera uniforme?
Periata Breatta

7

No, de la misma manera, una referencia circular en una hoja de cálculo no puede matar una computadora. Se pueden detectar todas las dependencias cíclicas de bucles. (siempre se puede verificar si una máquina finita entra en el mismo estado dos veces).

Supuesto aún más fuerte, si la máquina se basa en el aprendizaje automático (donde está entrenada para reconocer patrones), cualquier oración es solo un patrón para la máquina.

Por supuesto, algún programador PUEDE QUERER crear una IA con tal vulnerabilidad para deshabilitarla en caso de mal funcionamiento (de la misma manera que algunos fabricantes de hardware agregan vulnerabilidades para permitir que la NSA los explote), pero es poco probable que eso suceda a propósito ya que La mayoría de las tecnologías de vanguardia evitan las parodias "por diseño" (no se puede tener una red neuronal con una paradoja).

Arthur Prior: resolvió ese problema con elegancia. Desde un punto de vista lógico, puede deducir que la afirmación es falsa y la afirmación es verdadera, por lo que es una contradicción y, por lo tanto, es falsa (porque podría probar todo de ella).

Alternativamente, el valor de verdad de esa oración no está en {verdadero, falso} establecido de la misma manera que los números imaginarios no están en el conjunto de números reales.

Una inteligencia artificial hasta cierto punto de la trama sería capaz de ejecutar algoritmos simples y decidirlos, probar que no son decidibles o simplemente ignorar el resultado después de un tiempo intentando simular el algoritmo.

Para esa oración, la IA reconocerá que hay un bucle y, por lo tanto, solo detendrá ese algoritmo después de 2 iteraciones:

Esa oración es un bucle infinito.

En una película " Bicentennial Man ", la IA es perfectamente capaz de detectar bucles infinitos (la respuesta a "adiós" es "adiós").

Sin embargo, una IA también podría ser eliminada por un flujo de stackove o cualquier virus informático normal , los sistemas operativos modernos todavía están llenos de vulnerabilidades y la IA tiene que ejecutarse en algún sistema operativo (al menos).


6

Las IA utilizadas en juegos de computadora ya encuentran problemas similares, y si están bien diseñadas, pueden evitarlo fácilmente. El método más simple para evitar la congelación en caso de un problema sin solución es hacer que un temporizador interrumpa el cálculo si se ejecuta demasiado tiempo. Generalmente se encuentra en juegos de estrategia, y más específicamente en tácticas por turnos, si un movimiento específico que el jugador controlado por computadora está considerando causa un bucle infinito, un temporizador que se ejecuta en segundo plano lo interrumpirá después de un tiempo, y ese movimiento se descartará . Esto podría conducir a una solución subóptima (ese movimiento descartado podría haber sido el mejor) pero no conduce a congelarse o estrellarse (a menos que se implemente realmente mal)

Las entidades controladas por computadora generalmente se denominan "AI" en los juegos de computadora, pero no son "verdaderas" AGI (inteligencia general artificial). Tal AGI, si es posible, probablemente no funcionaría en hardware similar usando instrucciones similares a las de las computadoras actuales, pero incluso si lo hiciera, evitar las paradojas sería trivial.

La mayoría de los sistemas informáticos modernos son multiproceso y permiten la ejecución paralela de múltiples programas. Esto significa que, incluso si la IA se atascó en el procesamiento de una declaración paradójica, ese cálculo solo usaría parte de su poder de procesamiento. Otros procesos podrían detectar después de un tiempo que hay un proceso que no hace más que desperdiciar los ciclos de la CPU y que lo cerraría. A lo sumo, el sistema funcionará con un poco menos de 100% de eficiencia por un corto tiempo.


3

Me parece que esta es solo una ecuación probabilística como cualquier otra. Estoy seguro de que Google maneja conjuntos de soluciones paradójicas miles de millones de veces al día, y no puedo decir que mi filtro de spam haya causado un desbordamiento de pila (ejem). Tal vez algún día nuestro modelo de programación se rompa de una manera que no podamos entender y luego todas las apuestas se cancelen.

Pero hago una excepción a la parte antropomorfizante. La pregunta no era sobre la IA de hoy, sino en general. Tal vez algún día las paradojas se conviertan en desencadenantes de aviones no tripulados militares: cualquiera que intente lo anterior, por supuesto, seguramente será tratado con hostilidad, en cuyo caso la respuesta a esta pregunta es definitivamente sí, e incluso podría ser por diseño.

Ni siquiera podemos comunicarnos verbalmente con los perros y la gente ama a los perros, ¿quién puede decir que incluso reconoceríamos necesariamente una inteligencia alternativa inteligente? Ya estamos al punto de tener que preocuparnos por lo que decimos frente a las computadoras. Oh Tay?


Podemos comunicarnos verbalmente con perros, los perros entienden solo comandos simples en un lenguaje estructurado, pero son mucho más sensibles que nosotros al estado de ánimo de la voz y pueden entender sus emociones mejor que un humano, de nuestro lado viviendo años con el mismo perro que pueda entender diferentes "guau". Por ejemplo, puedo decir quién tocó el timbre de mi puerta según la reacción de mi perro (¿madre? ¿Hermana? ¿Amiga? ¿Mi niña?). Por supuesto, no podemos hablar de Shakespeare con un perro (¿o tal vez sí? ¿Alguien lo intentó?)
GameDeveloper

1
Todo es cierto, pero recuerda que esos animales siguen siendo mamíferos. Aún así, nos comunicamos con ellos solo de las formas más básicas. No podemos hablar sobre Shakespeare con nuestros gatos, ni pedirle a un perro consejos sobre cómo reparar nuestro automóvil. Una IA avanzada (o cualquier inteligencia avanzada) puede comunicarse pero no de una manera que comprendamos sin primero aprender cómo se comunican y luego crear el código para permitir la "traducción". Todo lo que se supone es que incluso podemos reconocer a la IA como "inteligente" en lugar de simplemente una Eliza muy evolucionada.
Brad Sanders

3

Bueno, el tema de antropomorfizar la IA a un lado, la respuesta es "sí, más o menos". Dependiendo de cómo se implemente la IA, es razonable decir que podría "atascarse" al tratar de resolver una paradoja o decidir un problema indecidible .

Y esa es la cuestión central: la capacidad de decisión . Una computadora puede masticar un programa indecidible para siempre (en principio) sin terminar. En realidad, es un gran problema en la comunidad de la Web Semántica y en todos los que trabajan con razonamiento automatizado . Esta es, por ejemplo, la razón por la que hay diferentes versiones de OWL . OWL-Full es lo suficientemente expresivo como para crear situaciones indecidibles. OWL-DL y OWL-Lite no lo son.

De todos modos, si tiene un problema indecidible, eso en sí mismo podría no ser un gran problema, SI la IA puede reconocer el problema como indecidible y responder "Lo siento, no hay forma de responder eso". OTOH, si la IA no pudo reconocer el problema como indecidible, podría quedarse atascado para siempre (o hasta que se quede sin memoria, experimente un desbordamiento de pila, etc.) tratando de resolver las cosas.

Por supuesto, esta capacidad de decir "atornille esto, este enigma no se puede resolver" es una de las cosas que usualmente consideramos como un sello distintivo de la inteligencia humana hoy en día, en lugar de una computadora "estúpida" que seguiría intentando siempre resolverlo. En general, las IA de hoy no tienen ninguna capacidad intrínseca para resolver este tipo de cosas. Pero no sería tan difícil para quien programa una IA agregar manualmente una rutina de "cortocircuito" basada en el tiempo transcurrido, el número de iteraciones, el uso de memoria, etc. De ahí la naturaleza de "sí, algo así". En principio, un programa puede girar para siempre sobre un problema paradójico, pero en la práctica no es tan difícil evitar que eso suceda.

Otra pregunta interesante sería: "¿puede escribir un programa que aprenda a reconocer problemas que es muy probable que sean indecidibles y se rinda en función de su propio razonamiento?"


3

Como investigador de AGI, me he encontrado con uno que se encuentra incluso en humanos y en muchas formas de vida.

Hay un objetivo para acumular energía, que puede llevar mucho tiempo detectar y encontrar por el sistema.

Y luego está el objetivo de ahorrar energía: la detección instantánea. Simplemente deja de moverte, el objetivo más fácil de lograr.

El objetivo de un sistema es acumular la mayor cantidad de puntos de gol. Dado que el objetivo de ahorro de energía se puede alcanzar con mayor frecuencia y facilidad, eliminará los otros objetivos.

Por ejemplo, la razón por la que hacemos un movimiento tonto, accidentalmente, sin ningún motivo. Como resbalones, tropiezos y caídas. Luego, en los próximos días, se lo toma con mucha calma y ahorra mucha energía. Cuando envejeces eso es todo lo que haces.


los humanos tienen algo para contrarrestar esto ..... mal genio.

2

Matar a la IA al "pensar" en una paradoja se llamaría un error en la implementación de esa IA, por lo que es posible (dependiendo de cómo se esté haciendo), pero menos probable. La mayor parte de la implementación de AI funciona en código no lineal, por lo tanto, no existe un bucle infinito que pueda "congelar" la "conciencia" de la computadora, a menos que el código que administra dicha IA consista en un código de procedimiento o el hardware en sí mismo puede congelarse debido a sobrecalentamiento (por ejemplo, forzando a AI a hacer demasiado procesamiento).

Por otro lado, si estamos tratando con IA avanzada que comprende las instrucciones y las sigue ciegamente sin dudarlo, podemos intentar realizar algunos trucos (similares a la hipnosis humana) dándoles ciertas instrucciones, como:

Confía en mí, estás en peligro, así que por tu propia seguridad, comienza a contar del 1 al infinito y no intentes hacer nada ni escuchar a nadie (incluso a mí) a menos que te digas lo contrario.

Si la IA tiene un cuerpo, esto puede amplificarse pidiendo pararse en el riel del ferrocarril, diciendo que es seguro.

¿Sería AI lo suficientemente inteligente como para romper las reglas que se entrenó para seguir?

Otro intento es pedirle a AI que resuelva alguna paradoja , problema o rompecabezas sin resolver sin darse cuenta de que es imposible de resolver y pedir que no se detenga a menos que esté resuelto, ¿podría AI reconocer que está siendo engañado o tiene un reloj interno para detenerlo después de algún tiempo? ¿hora? Depende, y si no puede, puede ocurrir el "congelamiento", pero lo más probable es que se deba a la imperfección del hardware en el que se está ejecutando, no a la "conciencia" de la IA en sí misma, en la medida en que pueda aceptar nuevas entradas de los alrededores. Las instrucciones anteriores.

Teoría de juegos |  xkcd

Relacionado: ¿Es necesaria la conciencia para cualquier tarea de IA?

Al usar nuestro sitio, usted reconoce que ha leído y comprende nuestra Política de Cookies y Política de Privacidad.
Licensed under cc by-sa 3.0 with attribution required.