¿Podría haber amenazas existenciales para la humanidad debido a la IA?


9

Estamos investigando, pasando horas descubriendo cómo podemos hacer que el software de IA real (agentes inteligentes) funcione mejor. También estamos tratando de implementar algunas aplicaciones, por ejemplo, en negocios, salud y educación, utilizando la tecnología de IA.

Sin embargo, hasta ahora, la mayoría de nosotros hemos ignorado el lado "oscuro" de la inteligencia artificial. Por ejemplo, una persona "poco ética" podría comprar miles de drones baratos, armarlos con armas y enviarlos disparando al público. Esta sería una aplicación "poco ética" de IA.

¿Podría haber (en el futuro) amenazas existenciales para la humanidad debido a la IA?


Cualquier tecnología tiene el potencial de ser una amenaza existencial para la humanidad.
Ankur

Respuestas:


2

Definiría la inteligencia como una habilidad para predecir el futuro. Entonces, si alguien es inteligente, puede predecir algunos aspectos del futuro y decidir qué hacer en función de sus predicciones. Entonces, si una persona "inteligente" decide lastimar a otras personas, podría ser muy efectivo en esto (por ejemplo, Hitler y su personal).

La inteligencia artificial podría ser extremadamente efectiva para predecir algunos aspectos del futuro incierto. Y esta en mi humilde opinión lleva a dos escenarios negativos:

  1. Alguien lo programa para lastimar a las personas. Ya sea por error o a propósito.
  2. La inteligencia artificial se diseñará para hacer algo seguro, pero en algún momento, para ser más eficaz, se rediseñará y tal vez eliminará los obstáculos de su camino. Entonces, si los humanos se convierten en obstáculos, serán eliminados muy rápidamente y de manera muy efectiva.

Por supuesto, también hay escenarios positivos, pero no está preguntando sobre ellos.

Recomiendo leer esta genial publicación sobre superinteligencia artificial y los posibles resultados de su creación: http://waitbutwhy.com/2015/01/artificial-intelligence-revolution-1.html


Gracias por su respuesta. Mucho interesado en ese segundo punto. El lado positivo, hay un éxito en el primer párrafo, espero que puedan ver.
quintumnia

4

No hay duda de que la IA tiene el potencial de representar una amenaza existencial para la humanidad.

La mayor amenaza para la humanidad radica en la inteligencia artificial superinteligente.

Una inteligencia artificial que supere la inteligencia humana será capaz de aumentar exponencialmente su propia inteligencia, lo que dará como resultado un sistema de IA que, para los humanos, será completamente imparable.

En esta etapa, si el sistema de inteligencia artificial decide que la humanidad ya no es útil, podría borrarnos de la faz de la tierra.

Como lo expresa Eliezer Yudkowsky en Inteligencia Artificial como un factor positivo y negativo en el riesgo global ,

"La IA no te odia, ni te ama a ti, pero estás hecho de átomos que puedes usar para otra cosa".

Una amenaza diferente radica en la instrucción de IA altamente inteligente

Aquí es útil considerar el experimento de pensamiento maximizador de clip.

Una IA altamente inteligente instruida para maximizar la producción de clips de papel podría tomar los siguientes pasos para lograr su objetivo.

1) Lograr una explosión de inteligencia para hacerse superinteligente (esto aumentará la eficiencia de optimización de clips)

2) Eliminar a la humanidad para que no se pueda desactivar (eso minimizaría la producción y sería ineficiente)

3) Use los recursos de la Tierra (incluido el planeta mismo) para construir robots autorreplicantes que alojen la IA

4) Exponencialmente esparcidos por todo el universo, cosechando planetas y estrellas por igual, convirtiéndolos en materiales para construir fábricas de clips.

Claramente, esto no es lo que quería el humano que era la producción de clips de negocios, sin embargo, es la mejor manera de cumplir con las instrucciones de la IA.

Esto ilustra cómo los sistemas de inteligencia artificial superinteligentes y altamente inteligentes pueden ser el mayor riesgo existencial que la humanidad pueda enfrentar.

Murray Shanahan, en The Technological Singularity , incluso propuso que la IA puede ser la solución a la paradoja de Fermi: la razón por la que no vemos vida inteligente en el universo puede ser que una vez que una civilización avance lo suficiente, desarrollará una IA que finalmente destruirá eso. Esto se conoce como la idea de un filtro cósmico .

En conclusión, la inteligencia que hace que la IA sea tan útil también la hace extremadamente peligrosa.

Figuras influyentes como Elon Musk y Stephen Hawking han expresado su preocupación de que la inteligencia artificial superinteligente sea la mayor amenaza que tendremos que enfrentar.

Espero que responda tu pregunta :)

Al usar nuestro sitio, usted reconoce que ha leído y comprende nuestra Política de Cookies y Política de Privacidad.
Licensed under cc by-sa 3.0 with attribution required.