A menudo escuchamos que la inteligencia artificial puede dañar o incluso matar humanos, por lo que puede resultar peligroso.
¿Cómo podría dañarnos la inteligencia artificial?
A menudo escuchamos que la inteligencia artificial puede dañar o incluso matar humanos, por lo que puede resultar peligroso.
¿Cómo podría dañarnos la inteligencia artificial?
Respuestas:
Hay muchas razones válidas por las cuales las personas podrían temer (o mejor preocuparse ) por la IA, no todas involucran robots y escenarios apocalípticos.
Para ilustrar mejor estas preocupaciones, intentaré dividirlas en tres categorías.
Este es el tipo de IA al que se refiere su pregunta. Una IA consciente súper inteligente que destruirá / esclavizará a la humanidad. Esto nos lo aporta principalmente la ciencia ficción. Algunos ejemplos notables de Hollywood son "The terminator" , "The Matrix" , "Age of Ultron" . Las novelas más influyentes fueron escritas por Isaac Asimov y se conocen como la "serie Robot" (que incluye "I, robot" , que también fue adaptada como una película).
La premisa básica de la mayoría de estos trabajos es que la IA evolucionará hasta un punto en el que se volverá consciente y superará a los humanos en inteligencia. Si bien las películas de Hollywood se centran principalmente en los robots y la batalla entre ellos y los humanos, no se le da suficiente énfasis a la IA real (es decir, el "cerebro" que los controla). Como nota al margen, debido a la narrativa, esta IA generalmente se presenta como una supercomputadora que controla todo (para que los protagonistas tengan un objetivo específico). No se ha hecho suficiente exploración sobre la "inteligencia ambigua" (que creo que es más realista).
¡En el mundo real, la inteligencia artificial se centra en resolver tareas específicas! Un agente de IA que es capaz de resolver problemas de diferentes dominios (por ejemplo, comprender el habla y procesar imágenes y conducir y ..., como lo son los humanos) se conoce como Inteligencia Artificial General y es necesario para que la IA pueda "pensar" y convertirse consciente.
Siendo realistas, ¡estamos muy lejos de la Inteligencia Artificial General! Dicho esto, no hay evidencia de por qué esto no se puede lograr en el futuro. Así que actualmente, incluso si todavía estamos en la infancia de la IA, no tenemos motivos para creer que la IA no evolucionará hasta un punto en el que sea más inteligente que los humanos.
A pesar de que una IA que conquista el mundo está muy lejos de suceder, hay varias razones para preocuparse por la IA hoy en día , ¡que no involucran robots! La segunda categoría en la que quiero centrarme un poco más es en varios usos maliciosos de la IA de hoy.
Me centraré solo en las aplicaciones de IA que están disponibles hoy . Algunos ejemplos de IA que se pueden usar con fines maliciosos:
DeepFake : una técnica para imponer la cara de alguien en una imagen de un video de otra persona. Esto ha ganado popularidad recientemente con el porno de celebridades y se puede usar para generar noticias falsas y engaños. Fuentes: 1 , 2 , 3
Con el uso de sistemas de vigilancia masiva y software de reconocimiento facial capaces de reconocer millones de caras por segundo , la IA se puede utilizar para la vigilancia masiva. Aunque cuando pensamos en la vigilancia masiva pensamos en China, muchas ciudades occidentales como Londres , Atlanta y Berlín se encuentran entre las ciudades más vigiladas del mundo . China ha dado un paso más al adoptar el sistema de crédito social , un sistema de evaluación para civiles que parece sacado directamente de las páginas de 1984 de George Orwell.
Influir en las personas a través de las redes sociales . Además de reconocer los gustos de los usuarios con el objetivo de marketing dirigido y agregar ubicaciones (una práctica común por muchas compañías de Internet), la IA se puede usar maliciosamente para influir en el voto de las personas (entre otras cosas). Fuentes: 1 , 2 , 3 .
Aplicaciones militares, por ejemplo, ataques con drones, sistemas de objetivos de misiles.
Esta categoría es bastante subjetiva, pero el desarrollo de la IA puede tener algunos efectos secundarios adversos. La distinción entre esta categoría y la anterior es que estos efectos, aunque dañinos, no se hacen intencionalmente; más bien ocurren con el desarrollo de la IA. Algunos ejemplos son:
Los trabajos se vuelven redundantes . A medida que la IA mejore, muchos trabajos serán reemplazados por IA. Desafortunadamente, no hay muchas cosas que se puedan hacer al respecto, ya que la mayoría de los desarrollos tecnológicos tienen este efecto secundario (por ejemplo, la maquinaria agrícola causó que muchos agricultores perdieran sus empleos, la automatización reemplazó a muchos trabajadores de fábricas, las computadoras hicieron lo mismo).
Reforzar el sesgo en nuestros datos . Esta es una categoría muy interesante, ya que la IA (y especialmente las redes neuronales) son tan buenas como los datos en los que están capacitados y tienen una tendencia a perpetuar e incluso mejorar las diferentes formas de sesgos sociales, que ya existen en los datos. Hay muchos ejemplos de redes que exhiben comportamientos racistas y sexistas. Fuentes: 1 , 2 , 3 , 4 .
¿Mencioné que todos estos ya están en pleno apogeo?
Aunque no existe una línea clara entre AI y AGI, esta sección trata más sobre lo que sucede cuando avanzamos hacia AGI. Veo dos alternativas:
En el primer caso, si una IA "se vuelve deshonesta", podemos construir otras IA para burlarla y neutralizarla. En el segundo caso, no podemos, y estamos condenados. Las IA serán una nueva forma de vida y podemos extinguirnos.
Aquí hay algunos problemas potenciales:
Creo que AGI se acerca y debemos ser conscientes de estos problemas para poder minimizarlos.
Además de las otras respuestas, me gustaría agregar al ejemplo de nuking cookie factory:
Las IA de aprendizaje automático básicamente intentan cumplir un objetivo descrito por los humanos. Por ejemplo, los humanos crean una IA que ejecuta una fábrica de galletas. El objetivo que implementan es vender tantas cookies como sea posible para obtener el mayor margen rentable.
Ahora, imagine una IA que sea suficientemente poderosa. Esta IA notará que si destruye todas las demás fábricas de galletas, todos tienen que comprar galletas en su fábrica, lo que aumenta las ventas y aumenta las ganancias.
Entonces, el error humano aquí no está penalizando el uso de violencia en el algoritmo. Esto se pasa por alto fácilmente porque los humanos no esperaban que el algoritmo llegara a esta conclusión.
Mi escenario favorito para el daño de la IA implica no alta inteligencia, sino poca inteligencia. Específicamente, la hipótesis del goo gris .
Aquí es donde un proceso automatizado de autorreplicación se vuelve loco y convierte todos los recursos en copias de sí mismo.
El punto aquí es que la IA no es "inteligente" en el sentido de tener alta inteligencia o inteligencia general: es simplemente muy buena en una sola cosa y tiene la capacidad de replicarse exponencialmente.
Yo diría que la mayor amenaza real sería el desequilibrio / interrupción que ya estamos viendo. Los cambios de dejar sin trabajo al 90% del país son reales, y los resultados (que serán una distribución aún más desigual de la riqueza) son terroríficos si lo piensas bien.
Tengo un ejemplo que va en la dirección opuesta a los temores del público, pero es algo muy real, que ya veo que sucede. No es específico de la IA, pero creo que empeorará con la IA. Es el problema de los humanos que confían ciegamente en las conclusiones de la IA en aplicaciones críticas.
Tenemos muchas áreas en las que se supone que los expertos humanos deben tomar una decisión. Tomemos, por ejemplo, un medicamento: ¿debemos administrar el medicamento X o el medicamento Y? Las situaciones que tengo en mente son con frecuencia problemas complejos (en el sentido de Cynefin) en los que es realmente bueno que alguien preste mucha atención y use mucha experiencia, y el resultado realmente importa.
Hay una demanda de informáticos médicos para escribir sistemas de apoyo a la decisión para este tipo de problema en la medicina (y supongo que para el mismo tipo en otros dominios). Lo hacen lo mejor que pueden, pero siempre se espera que un experto humano siempre considere la sugerencia del sistema como una opinión más al tomar la decisión. En muchos casos, sería irresponsable prometer algo más, dado el estado del conocimiento y los recursos disponibles para los desarrolladores. Un ejemplo típico sería el uso de la visión por computadora en radiología: un paciente se hace una tomografía computarizada y la IA tiene que procesar la imagen y decidir si el paciente tiene un tumor.
Por supuesto, la IA no es perfecta. Incluso cuando se compara con el estándar de oro, nunca alcanza el 100% de precisión. Y luego están todos los casos en los que funciona bien en comparación con sus propias métricas de objetivos, pero el problema era tan complejo que la métrica de objetivos no lo captura bien; no puedo pensar en un ejemplo en el contexto de CT, pero supongo Lo vemos incluso aquí en SE, donde los algoritmos favorecen la popularidad en las publicaciones, que es un proxy imperfecto para la corrección de los hechos.
Probablemente estabas leyendo el último párrafo y asintiendo, "Sí, aprendí eso en el primer curso introductorio de ML que tomé". ¿Adivina qué? Los médicos nunca tomaron un curso introductorio de ML. Raramente tienen suficientes conocimientos estadísticos para comprender las conclusiones de los artículos que aparecen en revistas médicas. Cuando están hablando con su paciente número 27, 7 horas en su turno de 16 horas, hambrientos y agotados emocionalmente, y la TC no se ve tan clara, pero la computadora dice que "no es un tumor maligno", no Tómese diez minutos más para concentrarse más en la imagen, buscar un libro de texto o consultar con un colega. Simplemente van con lo que dice la computadora, agradecidos de que su carga cognitiva no se esté disparando una vez más. Entonces pasan de ser expertos a ser personas que leen algo de una pantalla. Peor, En algunos hospitales, la administración no solo confía en las computadoras, también ha descubierto que son chivos expiatorios convenientes. Entonces, un médico tiene un mal presentimiento que va en contra de la salida de la computadora, se hace difícil para ellos actuar en ese presentimiento y defenderse de que eligieron anular la opinión de la IA.
Las IA son herramientas poderosas y útiles, pero siempre habrá tareas en las que no puedan reemplazar al portaherramientas.
Esto solo pretende ser un complemento de otras respuestas, por lo que no discutiré la posibilidad de que AI intente esclavizar voluntariamente a la humanidad.
Pero un riesgo diferente ya está aquí. Yo lo llamaría tecnología no dominada . Me han enseñado ciencia y tecnología, y en mi humilde opinión, la IA no tiene por sí misma ninguna noción del bien y el mal, ni la libertad. Pero está construido y utilizado por los seres humanos y, debido a eso, puede comportarse un comportamiento no racional.
Comenzaría con un ejemplo de la vida real más relacionado con la TI general que con la IA. Hablaré de virus u otros malwares. Las computadoras son máquinas bastante estúpidas que son buenas para procesar datos rápidamente. Entonces la mayoría de la gente confía en ellos. Algunas personas (malas) desarrollan malwares que alterarán el comportamiento correcto de las computadoras. Y todos sabemos que pueden tener efectos terribles en organizaciones pequeñas y medianas que no están bien preparadas para una pérdida de computadora.
La IA está basada en la computadora, por lo que es vulnerable a los ataques de tipo computadora. Aquí mi ejemplo sería un automóvil impulsado por IA. La tecnología está casi lista para funcionar. Pero imagine el efecto de un malware que hace que el automóvil intente atacar a otras personas en el camino. Incluso sin un acceso directo al código de la IA, puede ser atacado por canales laterales . Por ejemplo, usa cámaras para leer señales de señal. Pero debido a la forma en que se implementa el aprendizaje automático, la IA generalmente no analiza una escena de la misma manera que lo hace un ser humano. Los investigadores han demostrado que era posible cambiar un signo de manera que un humano normal todavía vea el signo original, pero una IA verá uno diferente. Imagine ahora que la señal es la señal de prioridad de la carretera ...
Lo que quiero decir es que incluso si la IA no tiene intenciones malvadas, los malos pueden intentar que se comporte mal. Y las acciones más importantes se delegarán a la IA (medicamentos, automóviles, aviones, sin hablar de bombas) cuanto mayor sea el riesgo. Dicho de otra manera, realmente no temo a la IA por sí misma, sino por la forma en que los humanos pueden usarla.
Creo que uno de los riesgos más reales (es decir, relacionados con las IA actuales y existentes) es confiar ciegamente en IA no supervisadas, por dos razones.
El error físico en los sistemas de inteligencia artificial puede comenzar a producir resultados tremendamente incorrectos en regiones en las que no fueron probados porque el sistema físico comienza a proporcionar valores incorrectos. Esto a veces se canjea por autocomprobación y redundancia, pero aún requiere supervisión humana ocasional.
Las IA de autoaprendizaje también tienen una debilidad de software: sus redes de peso o representaciones estadísticas pueden acercarse a los mínimos locales donde están atrapados con un resultado incorrecto.
Afortunadamente, esto se discute con frecuencia, pero vale la pena mencionarlo: la clasificación de las entradas de los sistemas de IA a menudo está sesgada porque el conjunto de datos de capacitación / prueba también está sesgado. Esto da como resultado que las IA no reconozcan a personas de cierta etnia, por ejemplo más obvio. Sin embargo, hay casos menos obvios que solo se pueden descubrir después de un accidente grave, como que la IA no reconoce ciertos datos y comienza a disparar accidentalmente en una fábrica, rompe equipos o hiere a personas.
Si un robot es similar a una interfaz hombre-máquina, el dispositivo es el mismo que un automóvil controlado a distancia. Es posible discutir con el operador detrás del joystick y negociar sobre un comportamiento ilusorio. Los robots controlados a distancia son invenciones seguras porque sus acciones se remontan a los humanos y se puede anticipar su motivación. Se pueden usar para mejorar la vida diaria, y es divertido jugar con ellos.
Por el contrario, algunos robots no están controlados por joysticks, sino que funcionan con un generador de dados interno. El juguete de dados es conocido por su papel social en el juego, pero también tiene un significado místico. Por lo general, un generador aleatorio está fuertemente conectado con el comportamiento caótico que está controlado por fuerzas oscuras fuera de la influencia de los humanos. Un dado electrónico integrado en un robot y mejorado con un algoritmo de aprendizaje es lo opuesto a una interfaz hombre-máquina, pero es un problema potencial porque el robot controlado aleatoriamente jugará juegos con humanos que no se pueden anticipar. No es posible predecir el próximo número de dados, por lo tanto, el robot también se comportará abruptamente.
La conexión entre los juegos controlados aleatoriamente y el impacto social negativo se explicó en la siguiente oración.
Cita: “En muchas sociedades tradicionales no occidentales, los jugadores pueden rezar a los dioses por el éxito y explicar las ganancias y pérdidas en términos de voluntad divina. "Binde, Per. "Juegos de azar y religión: historias de concordia y conflicto". Journal of Gambling Issues 20 (2007): 145-165.
Los seres humanos existen actualmente en un nicho ecológico-económico de "lo que piensa".
La IA también es algo que piensa, por lo que invadirá nuestro nicho ecológico-económico. Tanto en ecología como en economía, tener algo más que ocupe tu nicho no es un gran plan para la supervivencia continua.
Cómo exactamente la supervivencia humana se ve comprometida por esto va a ser bastante caótico. Habrá un montón de formas plausibles en que la IA podría poner en peligro la supervivencia humana como especie, o incluso como una forma de vida dominante.
Supongamos que hay una IA fuerte sin "súper ética" que es más barata de fabricar que un humano (incluida la fabricación de un "cuerpo" o forma de manipular el mundo), y tan inteligente o más inteligente que un humano.
Este es un caso en el que comenzamos a competir con esa IA por recursos. Sucederá en escalas microeconómicas (¿contratamos a un humano o compramos / construimos / alquilamos / contratamos una IA para resolver este problema?). Dependiendo de la velocidad a la que las IA se vuelven baratas y / o más inteligentes que las personas, esto puede suceder lentamente (tal vez una industria a la vez) o extremadamente rápido.
En una competencia capitalista, aquellos que no se trasladan a las IA más baratas terminan superando a la competencia.
Ahora, a corto plazo, si las ventajas de la IA son solo marginales, el alto costo de educar a los humanos durante 20 años antes de que sean productivas podría hacer que este proceso sea más lento. En este caso, podría valer la pena pagar a un médico por encima del salario de hambre para diagnosticar una enfermedad en lugar de una IA, pero probablemente no valga la pena pagar sus préstamos estudiantiles. Entonces, los nuevos Doctores humanos dejarían de recibir capacitación rápidamente, y los Doctores existentes se empobrecerían. Luego, durante 20-30 años, la IA reemplazaría por completo a los médicos con fines de diagnóstico.
Si las ventajas de la IA son grandes, entonces sería rápido. Los médicos ni siquiera valdrían la pena pagar salarios de nivel de pobreza para hacer diagnósticos humanos. Puedes ver que algo así sucede con la agricultura basada en músculos cuando la agricultura a base de gasolina se hizo cargo.
Durante las revoluciones industriales pasadas, el hecho de que los humanos sean capaces de pensar significa que se puede reutilizar el excedente de trabajadores humanos para realizar otras acciones; líneas de fabricación, trabajos de economía de servicios, programación de computadoras, etc. Pero en este modelo, la IA es más barata de entrenar y construir y tan inteligente o más inteligente que los humanos en ese tipo de trabajo.
Como lo demuestra la primavera árabe inducida por etanol, los cultivos y las tierras de cultivo se pueden usar para alimentar tanto a máquinas como a humanos. Cuando las máquinas son más eficientes en términos de convertir las tierras de cultivo en trabajo útil, comenzará a ver subir el precio de los alimentos. Esto generalmente lleva a disturbios, ya que a la gente realmente no le gusta morir de hambre y está dispuesta a arriesgar sus propias vidas para derrocar al gobierno para evitar esto.
Puede calmar a las personas al proporcionar alimentos subsidiados y similares. Mientras esto no sea económicamente paralizante (es decir, si es lo suficientemente caro, podría resultar en que te superen otros lugares que no lo hacen), esto es simplemente inestable políticamente.
Como alternativa, en el corto plazo, la casta de propietarios que está recibiendo ganancias de la economía cada vez más eficiente dirigida por la IA puede pagar por una casta policial o militar para sofocar dichos disturbios. Esto requiere que las castas policiales / militares sean de clase baja superior a media en niveles de vida, a fin de garantizar la lealtad continua: no desea que se unan a los alborotadores.
Por lo tanto, uno de los centros de ganancias a los que puede recurrir la IA es el servicio militar y policial basado en la inteligencia artificial. Los drones que entregan municiones letales y no letales basadas en el procesamiento de datos visuales y otros datos pueden reducir la cantidad de policías / militares de clase media necesarios para sofocar disturbios provocados por el precio de los alimentos u otra inestabilidad. Como ya supusimos que las IA pueden tener cuerpos y entrenamiento más baratos que un humano biológico, esto también puede aumentar la cantidad de fuerza que puede desplegar por cada dólar gastado.
En este punto, estamos hablando de una policía y un ejército en su mayoría utilizados por la IA para evitar que los humanos hambrientos derroquen la economía de la IA y se apoderen de los medios de producción del uso más eficiente que se le está dando actualmente.
Los humanos vestigiales que "poseen" el sistema en la parte superior están tomando decisiones localmente racionales para optimizar su riqueza y poder. Pueden o no persistir por mucho tiempo; Mientras agoten una cantidad relativamente pequeña de recursos y no arruinen la economía de la IA, no habrá mucha presión de selección para deshacerse de ellos. Por otro lado, como no están aportando nada de valor, se posicionan "en la cima" es políticamente inestable.
Este proceso asumió una IA general "fuerte". Las IA más estrechas pueden hacer esto en pedazos. Una computadora de diagnóstico barata y efectiva podría reducir la pobreza de la mayoría de los médicos en un período sorprendentemente corto de tiempo, por ejemplo. Los autos sin conductor podrían tragarse entre el 5% y el 10% de la economía. La tecnología de la información ya se está tragando al sector minorista con una IA modesta.
Se dice que cada avance tecnológico conduce a más y mejores empleos para los humanos. Y esto ha sido cierto durante los últimos 300 años.
Pero antes de 1900, también era cierto que cada avance tecnológico generaba más y mejores empleos para los caballos. Luego llegaron el ICE y el automóvil, y ahora hay muchos menos caballos de trabajo; los caballos restantes son básicamente el equivalente de los sirvientes personales humanos: guardados para la novedad de "guau, guay, caballo" y la diversión de montar y controlar un enorme animal.
Además de las muchas respuestas ya proporcionadas, mencionaría el tema de los ejemplos adversos en el área de los modelos de imágenes.
Los ejemplos adversarios son imágenes que han sido perturbadas con ruido diseñado específicamente que a menudo es imperceptible para un observador humano, pero altera fuertemente la predicción de un modelo.
Ejemplos incluyen:
Afectando el diagnóstico predicho en una radiografía de tórax
Afectando la detección de señales viales necesarias para vehículos autónomos.
La IA que se usa para resolver un problema del mundo real podría representar un riesgo para la humanidad y no requiere exactamente sensibilidad, también requiere un cierto grado de estupidez humana.
A diferencia de los humanos, una IA encontraría la respuesta más lógica sin la restricción de la emoción, la ética o incluso la codicia ... Solo la lógica. Pregúntele a esta IA cómo resolver un problema que los humanos crearon (por ejemplo, el Cambio Climático) y su solución podría ser eliminar la totalidad de la raza humana para proteger el planeta. Obviamente, esto requeriría darle a la IA la capacidad de actuar sobre su resultado, lo que me lleva a mi punto anterior, la estupidez humana.
La inteligencia artificial puede dañarnos de cualquiera de las formas de la inteligencia natural (de los humanos). La distinción entre inteligencia natural y artificial desaparecerá cuando los humanos comiencen a aumentar más íntimamente. La inteligencia ya no puede caracterizar la identidad y se convertirá en una posesión ilimitada. El daño causado será tanto como los humanos puedan soportar para preservar su identidad propia en evolución.
Pocas personas se dan cuenta de que nuestra economía global debe considerarse una IA: - Las transacciones monetarias son las señales a través de una red neuronal. Los nodos en la red neuronal serían las diferentes corporaciones o personas privadas que pagan o reciben dinero. - Está hecho por el hombre, por lo que califica como artificial
Esta red neuronal es mejor en su tarea que los humanos: el capitalismo siempre ha ganado contra la economía planificada por los humanos (economía plan).
¿Es peligrosa esta red neuronal? Puede ser diferente si usted es el CEO que gana mucho frente a un pescador en un río contaminado por los desechos corporativos.
¿Cómo se volvió peligrosa esta IA? Podrías responder es por la codicia humana. Nuestra creación se refleja a nosotros mismos. En otras palabras: no entrenamos nuestra red neuronal para comportarse bien. En lugar de entrenar la red neuronal para mejorar la calidad de vida de todos los humanos, la entrenamos para hacer más ricos los fokes.
¿Sería fácil entrenar a esta IA para que ya no sea peligrosa? Tal vez no, tal vez algunas IA son simplemente más grandes que la vida. Es solo la supervivencia del más apto.