¿Es la inteligencia artificial vulnerable a la piratería?
Invierta su pregunta por un momento y piense:
¿Qué haría que la IA tenga menos riesgo de piratería en comparación con cualquier otro tipo de software?
Al final del día, el software es software y siempre habrá errores y problemas de seguridad. Las IA están en riesgo de todos los problemas a los que no está en peligro el software que no es de IA, ya que la IA no le otorga algún tipo de inmunidad.
En cuanto a la manipulación específica de AI, AI está en riesgo de recibir información falsa. A diferencia de la mayoría de los programas, la funcionalidad de AI está determinada por los datos que consume.
Para un ejemplo del mundo real, hace unos años Microsoft creó un chatbot de IA llamado Tay. La gente de Twitter tardó menos de 24 horas en enseñarle a decir "Vamos a construir un muro, y México lo va a pagar":
(Imagen tomada del artículo de Verge vinculado a continuación, no reclamo ningún crédito por ello).
Y eso es solo la punta del iceberg.
Algunos artículos sobre Tay:
Ahora imagine que no era un bot de chat, imagine que era una pieza importante de inteligencia artificial de un futuro en el que la inteligencia artificial está a cargo de cosas como no matar a los ocupantes de un automóvil (es decir, un automóvil autónomo) o no matar a un paciente en la mesa de operaciones (es decir, algún tipo de equipo de asistencia médica).
De acuerdo, uno esperaría que tales IAs estuvieran mejor protegidas contra tales amenazas, pero suponiendo que alguien encontrara una manera de alimentar tales masas de IA de información falsa sin ser notado (después de todo, los mejores piratas informáticos no dejan rastro), eso realmente podría significar La diferencia entre la vida y la muerte.
Utilizando el ejemplo de un automóvil sin conductor, imagine si los datos falsos pueden hacer que el automóvil piense que debe hacer una parada de emergencia cuando está en una autopista. Una de las aplicaciones para la IA médica es la decisión de vida o muerte en la sala de emergencias, imagínese si un pirata informático podría inclinar la balanza a favor de la decisión equivocada.
¿Cómo podemos prevenirlo?
En última instancia, la escala del riesgo depende de cuán dependientes sean los humanos de la IA. Por ejemplo, si los humanos juzgaran a una IA y nunca la cuestionaran, se estarían abriendo a todo tipo de manipulaciones. Sin embargo, si usan el análisis de la IA como solo una parte del rompecabezas, sería más fácil detectar cuándo una IA está equivocada, ya sea por medios accidentales o maliciosos.
En el caso de un tomador de decisiones médicas, no solo crea en la IA, realice pruebas físicas y obtenga algunas opiniones humanas también. Si dos médicos no están de acuerdo con la IA, descarte el diagnóstico de la IA.
En el caso de un automóvil, una posibilidad es tener varios sistemas redundantes que esencialmente deben 'votar' sobre qué hacer. Si un automóvil tuviera múltiples AI en sistemas separados que deben votar sobre qué acción tomar, un pirata informático tendría que eliminar más de una IA para obtener el control o causar un punto muerto. Es importante destacar que si las IA se ejecutan en diferentes sistemas, la misma explotación utilizada en uno no se podría hacer en otro, aumentando aún más la carga de trabajo del hacker.