El artículo El robot que golpea a los niños inspira un nuevo sistema de maniobra de escape se basa en dos trabajos de investigación sobre un experimento en un centro comercial japonés que llevó a niños sin supervisión a atacar robots. El trabajo de investigación que le interesa es Escaping from Children's Abuse of Social Robots .
En ese trabajo de investigación, los investigadores pudieron programar los robots para seguir una simulación de planificación para reducir la probabilidad de abuso por parte de los niños. Si detecta niños, el robot está programado para retirarse a una multitud de adultos (que luego pueden disciplinar a los niños si es necesario). Esto sucedió porque los investigadores vieron que solo los niños golpeaban a los robots en el centro comercial en cuestión.
Sin embargo, discuten probar otras opciones:
En este trabajo, la estrategia del robot para evitar el abuso fue "escapar", es decir, trasladarse a un lugar donde es menos probable que ocurra un abuso. Uno podría preguntarse por qué el robot no puede superar el abuso. En nuestras pruebas preliminares probamos varios enfoques, pero descubrimos que es muy difícil para el robot persuadir a los niños de que no lo abusen. Por ejemplo, cambiamos las palabras del robot de muchas maneras, usando palabras fuertes, expresiones emocionales o educadas, pero ninguna de ellas tuvo éxito. Una estrategia parcialmente exitosa fue el robot 'físicamente' empujando a los niños. Cuando se bloqueaba su camino, solo intentaba seguir adelante y comportarse como si chocara con los niños y se abriera paso (bajo un cuidadoso monitoreo de un operador humano). Observamos que los niños al principio aceptaron las solicitudes del robot y las obedecieron; pero, Muy pronto aprendieron que son más fuertes que el robot, por lo que pueden ganar si presionan, y también que pueden detenerlo presionando el interruptor de parachoques (conectado al robot por seguridad). Después de darse cuenta de eso, simplemente continuaron con el comportamiento abusivo. Obviamente, tener un robot más fuerte presentaría un problema para la seguridad y la aceptación social, por lo que lidiar con situaciones tan abusivas sigue siendo difícil.
Pero interroguemos más su pregunta:
Si la IA consciente es posible y está muy extendida, ¿no sería fácil para alguien que sabe lo que está haciendo para torturar la IA?
¿Por qué considerarías que tal tortura está mal ? Después de todo, uno podría argumentar que la máquina realmente no 'experimentará' dolor si la tortura ... así que debería ser moralmente correcto torturar la máquina entonces. Puede responder como si tuviera dolor, pero es dudoso que la capacidad de simular un estado emocional como "tener dolor" sea equivalente a estar realmente en ese estado emocional. Ver la pregunta ¿La simulación de estados emocionales es equivalente a experimentar emociones realmente? para más discusión sobre este tema.
Puede hacer tal argumento, pero realmente no funcionará a nivel emocional porque la mayoría de los humanos sentirían empatía hacia la máquina. Puede ser difícil justificarlo lógicamente (y puede estar basado en las tendencias de los humanos a participar en el antropomorfismo ), pero sentimos esta empatía. Es esta empatía la que te hizo hacer esta pregunta en primer lugar, hizo que los investigadores descubrieran cómo proteger a un robot de ser golpeado, permitió que los agentes de policía arrestaran a un hombre japonés borracho por golpear a un robot SoftBank e hicieron muchos humanos molesto por la destrucción de hitchBOT . Y eso escómo se evitaría el abuso de la IA: la empatía humana. Si la mayoría de los humanos se preocupan por el bienestar de las máquinas, tendrán la prioridad de detener a esos pocos humanos que pueden y están dispuestos a abusar de las máquinas.
EDITAR: El OP ha editado su pregunta para aclarar que está hablando de software y no de robots. Para los robots, puede confiar en el antropomorfismo para producir cierto nivel de simpatía, pero es difícil simpatizar con líneas de código sin formato.
No vas a detener el abuso de algoritmos. En pocas palabras, dado que los algoritmos no son como nosotros, no vamos a extender el mismo tipo de empatía que con los robots. Incluso los chatbots son un poco dudosos. Sin embargo, si logras que las personas simpaticen con las líneas de código (posiblemente haciendo una simulación convincente de emoción y sapiencia), entonces se aplica la respuesta anterior: los humanos antropomorfizan la máquina y proponen contramedidas. Todavía no estamos en ese nivel, por lo que "detener el abuso de IA" será una prioridad baja.
Aún así, algunas cajas de seguridad podrían programarse para limitar el daño del abuso, como se detalla en este hilo sobre abuso de chatbot , haciendo que el bot responda de manera aburrida para que el abusador se sienta aburrido y avance al siguiente objetivo, respondiendo de nuevo al abusador en una "batalla de ingenio", o incluso simplemente bloqueando a los abusadores del uso del servicio.
Estas cajas de seguridad son un consuelo frío para aquellos que desean evitar el abuso, no responder a él.
Además ... un abusador puede aprender felizmente cómo programar una IA para luego abusar del contenido de su corazón. No se puede hacer nada para detener eso, y cualquier medida posible para detener dicho abuso (como monitorear a cada ser humano para asegurarse de que no programe una IA para abusar) probablemente causará más daño del que resolvería.