No hay duda de que la IA tiene el potencial de representar una amenaza existencial para la humanidad.
La mayor amenaza para la humanidad radica en la inteligencia artificial superinteligente.
Una inteligencia artificial que supere la inteligencia humana será capaz de aumentar exponencialmente su propia inteligencia, lo que dará como resultado un sistema de IA que, para los humanos, será completamente imparable.
En esta etapa, si el sistema de inteligencia artificial decide que la humanidad ya no es útil, podría borrarnos de la faz de la tierra.
Como lo expresa Eliezer Yudkowsky en Inteligencia Artificial como un factor positivo y negativo en el riesgo global ,
"La IA no te odia, ni te ama a ti, pero estás hecho de átomos que puedes usar para otra cosa".
Una amenaza diferente radica en la instrucción de IA altamente inteligente
Aquí es útil considerar el experimento de pensamiento maximizador de clip.
Una IA altamente inteligente instruida para maximizar la producción de clips de papel podría tomar los siguientes pasos para lograr su objetivo.
1) Lograr una explosión de inteligencia para hacerse superinteligente (esto aumentará la eficiencia de optimización de clips)
2) Eliminar a la humanidad para que no se pueda desactivar (eso minimizaría la producción y sería ineficiente)
3) Use los recursos de la Tierra (incluido el planeta mismo) para construir robots autorreplicantes que alojen la IA
4) Exponencialmente esparcidos por todo el universo, cosechando planetas y estrellas por igual, convirtiéndolos en materiales para construir fábricas de clips.
Claramente, esto no es lo que quería el humano que era la producción de clips de negocios, sin embargo, es la mejor manera de cumplir con las instrucciones de la IA.
Esto ilustra cómo los sistemas de inteligencia artificial superinteligentes y altamente inteligentes pueden ser el mayor riesgo existencial que la humanidad pueda enfrentar.
Murray Shanahan, en The Technological Singularity , incluso propuso que la IA puede ser la solución a la paradoja de Fermi: la razón por la que no vemos vida inteligente en el universo puede ser que una vez que una civilización avance lo suficiente, desarrollará una IA que finalmente destruirá eso. Esto se conoce como la idea de un filtro cósmico .
En conclusión, la inteligencia que hace que la IA sea tan útil también la hace extremadamente peligrosa.
Figuras influyentes como Elon Musk y Stephen Hawking han expresado su preocupación de que la inteligencia artificial superinteligente sea la mayor amenaza que tendremos que enfrentar.
Espero que responda tu pregunta :)