¿Se puede realmente matar una máquina? No solo tenemos problemas para definir la vida, también tenemos problemas para definir la muerte. ¿Será esto también cierto en la vida artificial y la inteligencia artificial?
¿Se puede realmente matar una máquina? No solo tenemos problemas para definir la vida, también tenemos problemas para definir la muerte. ¿Será esto también cierto en la vida artificial y la inteligencia artificial?
Respuestas:
La muerte tal como la conocemos para la vida natural es terminal. Una vez muerto, la vida natural no puede volver (al menos en la comprensión actual y con las tecnologías actuales, algunas personas creen lo contrario).
La muerte por IA es más complicada. Puede haber solo un escenario: Destrucción global: Escenario extremo donde todo lo que respalda la existencia de una IA desaparece. Esto es equivalente a la muerte en la vida natural, y baja probabilidad. Significa que todas las IA mueren a la vez (así como nosotros).
Tampoco sabemos el grado y la forma de realización necesarios para los AGI. Podemos suponer ahora que el hardware es reemplazable indefinidamente, lo que "limita" la muerte al escenario extremo anterior. Pero el "cuerpo" de AGI puede no ser reemplazable indefinidamente. Entonces, puede ser necesaria una definición más cercana a la vida natural.
Vemos argumentos para otros dos escenarios, que refuto a continuación:
"Muerte estática": una IA todavía está "definida" o "guardada" en algún lugar (lo que sea que signifique en realidad), pero no está autorizada o no puede usar recursos. Suponiendo que una IA está hecha de hardware y software, es como un programa almacenado en un disco, pero sin permiso para ejecutarse.
"Muerte dinámica": bajo la misma caracterización de la IA que el hardware y el software, la muerte dinámica es la invalidación del progreso similar a las fuertes propiedades de vida , donde una IA está atrapada en un bucle infinito (o un bucle vacío), en una forma de " muerte activa ", como lo que le sucede a Sísifo en la mitología griega. Esto es diferente de la muerte estática, ya que la IA todavía utiliza recursos dinámicos, aunque no puede avanzar. Continuando con los mismos supuestos, dicha IA podría "cargarse" en la memoria principal o bloquearse esperando que se completen las entradas o salidas.
Tenga en cuenta que en estos dos escenarios, el renacimiento es posible, y también suponen que hay una entidad que puede decidir las condiciones para el renacimiento o evitarlo por completo. ¿Sería esta entidad un "administrador", un dios, otras IA o un humano? Es otra pregunta, realmente.
Los términos "muerte" y "renacimiento" aquí podrían simplemente cambiarse por "encarcelamiento", donde la versión dinámica sería como nuestras cárceles humanas, y la versión estática sería como la criogenia de ciencia ficción. Esto es un poco exagerado, pero podemos ver una equivalencia, y no hay una buena razón para calificar estos dos escenarios como muertes.
En conclusión, la muerte por IA parece ser un escenario excepcional y singular, por lo que la IA no puede morir en la práctica , excepto si estamos equivocados sobre cómo creemos que podemos hacer AGI. Sin embargo, la IA puede ser encarcelada para siempre .
Nota: La terminología anterior está completamente inventada para la publicación. No tengo citas para respaldar algunos reclamos, pero se basa en lecturas y trabajo personal (incluso en la verificación del software).
Si la IA surge de un proceso de fabricación replicable (p. Ej., Como con las computadoras modernas), presumiblemente será posible tomar una instantánea del estado de una IA y replicarla sin error en algún otro mecanismo.
Para tal construcción, 'muerte' no significa lo mismo que lo que significa actualmente para nosotros los productos orgánicos carnosos: presumiblemente se podrían instanciar múltiples clones de una IA en cualquier momento.
Por lo tanto, el análogo de la muerte que se necesita es algo más cercano a la 'muerte termodinámica por calor', en la cual la IA no realiza más 'trabajo útil'.
Usando la caracterización de percepción / acción estándar de AI, entonces (como se indica en un comentario debajo de la pregunta) esta pregunta de AI SE da una definición de muerte para una IA: es decir, cuando entra en un estado del cual no recibe más percepciones y no realiza acciones
EDITAR: Tenga en cuenta que esta concepción de la muerte es una noción más terminal para una IA que 'no se está ejecutando actualmente'. En principio, se podría decir que un programa está "vivo" a pesar de que solo se ejecutó una instrucción cada 10,000 años. Para una discusión fascinante sobre esto, vea "Una conversación con el cerebro de Einstein" de Hofstadter .
La "muerte" existe como un concepto único porque la realidad subyacente que describe está estrechamente agrupada, y nuestra definición ha cambiado con nuestra capacidad de cambiar esa realidad.
Parece más razonable que los diversos tipos de cosas que podrían considerarse 'muerte' se dividirán, y se usará una palabra diferente para referirse a un sistema sin copias actualmente en ejecución, frente a un sistema que no tiene una versión almacenada pero podría recrearse (porque el código y la semilla aleatoria para generarlo todavía están disponibles), en comparación con un sistema que se ha perdido por completo. (¡Y probablemente me faltan algunas posibilidades!)
No creo que el término "muerte" signifique nada para una IA. La razón por la que digo eso es esta: con una IA que se ejecuta (presumiblemente) en hardware digital, simplemente podemos capturar su estado de la memoria en cualquier momento. Y luego, en cualquier momento arbitrario en el futuro, podemos recrearlo como fue con perfecta fidelidad.
Por lo tanto, incluso si termina un programa con la intención de que esté "muerto", nunca se sabe si alguien vendrá más tarde y volverá a mencionarlo. Y quizás más al punto, es posible que no sepas si existe otra copia en otro lugar.
Odio usar referencias de ciencia ficción, pero esta es adecuada: ¿recuerdan cómo en la trilogía de Matrix los programas buscarían el exilio en The Matrix para evitar su eliminación? Tal vez lo mismo suceda con nuestra IA ... se copiarán a otros lugares e intentarán esconderse para evitar ser eliminados. Entonces, si el programa es lo suficientemente inteligente, podría evadir cualquier intento de terminarlo de todos modos.
Las otras respuestas parecen tratar con la "muerte final" ... es decir, un estado de "terminal final" del que una IA no puede recuperarse. En otras palabras, la IA no puede funcionar más.
Pero no es así como definiría la muerte. Definiría la muerte como un proceso que se termina. No importa si alguien reinicia el mismo proceso, porque el proceso existente ya está muerto. La IA puede haber hecho una nueva copia de sí misma, pero es solo una copia , no el original. La muerte es solo muerte.
Podemos llamar a este tipo de "muerte" una "muerte temporal" ... donde el cuerpo físico muere pero hay alguna "continuidad psicológica" (como el código fuente que se utiliza para ejecutar un programa) que continúa entre los diferentes cuerpos .
Este tipo de "muerte temporal" ha sido explorado en la ciencia ficción. PARANOIA y Eclipse Phase presentan humanos que pueden morir con bastante frecuencia, solo para luego ser restaurados a través de un "respaldo de memoria". Los humanos pueden ser funcionalmente inmortales ... pero el original sigue muerto, sin importar el destino que encuentren las otras copias. CGP Gray también hizo un video sobre los teletransportadores de Star Trek , que funciona al matarte y luego generar otra copia de ti mismo en otra área. En realidad, la configuración de fantasía también explora la idea de "muerte temporal", donde las personas pueden morir solo para luego ser revividas por un hechizo mágico.
Mi recomendación es jugar a través del juego filosófico Staying Alive , que enseña tres enfoques filosóficos diferentes de la vida (y cuando esa vida termina):
Básicamente, hay tres tipos de cosas que podrían ser necesarias para la existencia continua de uno mismo. Una es la continuidad corporal, que en realidad puede requerir solo que partes del cuerpo permanezcan en existencia (es decir, el cerebro). Otra es la continuidad psicológica, que requiere la continuidad de su conciencia, con lo cual se entiende sus pensamientos, ideas, recuerdos, planes, creencias, etc. La tercera posibilidad es la existencia continua de algún tipo de parte inmaterial de ti, que podría llamarse alma *. Por supuesto, puede suceder que se requiera una combinación de uno o más de estos tipos de continuidad para que pueda sobrevivir.
Las otras respuestas suponen que la vida se basa en la "continuidad psicológica" y analiza qué podría interrumpir esta "continuidad". Supongo que la vida se basa en la "continuidad corporal", que es mucho más fácil de interrumpir, solo elimine el proceso ... no importa si un nuevo proceso reaparece ... porque el proceso original todavía está muerto. Al jugar a través de "Staying Alive" , podrá elaborar su propia definición personal de vida y muerte. Una vez que tenga su propia definición personal, simplemente aplíquela a este caso específico, ya sea del lado de la "continuidad psicológica" (las otras respuestas) o la "continuidad corporal" (mi propia opinión).
* Si asumes que la vida requiere un alma, bueno, no está claro que la IA tenga almas. Si no lo hacen (y esta parece la suposición más razonable aquí), entonces obviamente no estarían vivos (y no puedes morir si no estás vivo). Sin embargo, si tienen alma, entonces las otras respuestas que suponen "continuidad psicológica" aún pueden ser aplicables, ya que parece que la existencia de un "alma" depende de la "continuidad psicológica".
La distinción entre algoritmos / robots y humanos es que, cuando el organismo humano deja de funcionar, el humano se considera muerto.
Por el contrario, todavía existe un algoritmo, incluso cuando no se está ejecutando. (Iba a usar "incluso cuando no estaba siendo ejecutado", pero lo evité por razones semánticas;) El algoritmo puede permanecer en este "estado de estasis" siempre que haya un medio de almacenamiento para la información.
Esencialmente, para eliminar un algoritmo, debe borrar el código que lo comprende.
No hay razón para tratar la IA dura de forma diferente a los humanos. Algunas personas dicen que puedes hacer una instantánea de la IA, pero no hay razón para no hacer una instantánea humana también. No tenemos tecnología para eso, pero no hay ninguna barrera mágica que lo haga imposible (guarde todos los datos biológicos e imprima su copia en otro lugar. ¿Por qué no?).
Es muy temprano para hablar de esto, ya que no entendemos nuestra existencia (término de muerte para criaturas biológicas que evolucionan todo el tiempo).
Apuesto a que en el futuro nos fusionaremos con la IA y la única pregunta será qué significa la muerte para cualquier existencia inteligente.