¿Podrían los humanos lastimar a una IA consciente o sensible?


9

Si es posible una IA consciente, ¿también sería posible que alguien que sabe lo que está haciendo torture (o lastime) a la IA? ¿Se podría evitar esto? ¿Cómo?

Esta pregunta trata sobre IA basada en computadora, no robots, que son tan conscientes como las personas (esta es una suposición de la pregunta). La pregunta se pregunta cómo podría prevenirse un delito tan difícil de rastrear como las descargas ilegales, pero mucho peor éticamente. Tenga en cuenta que a pesar de que la mayoría de las personas son amables y simpatizantes con los robots, siempre hay personas malas, por lo que depender de la conciencia general no funcionará.

Respuestas:


9

El artículo El robot que golpea a los niños inspira un nuevo sistema de maniobra de escape se basa en dos trabajos de investigación sobre un experimento en un centro comercial japonés que llevó a niños sin supervisión a atacar robots. El trabajo de investigación que le interesa es Escaping from Children's Abuse of Social Robots .

En ese trabajo de investigación, los investigadores pudieron programar los robots para seguir una simulación de planificación para reducir la probabilidad de abuso por parte de los niños. Si detecta niños, el robot está programado para retirarse a una multitud de adultos (que luego pueden disciplinar a los niños si es necesario). Esto sucedió porque los investigadores vieron que solo los niños golpeaban a los robots en el centro comercial en cuestión.

Sin embargo, discuten probar otras opciones:

En este trabajo, la estrategia del robot para evitar el abuso fue "escapar", es decir, trasladarse a un lugar donde es menos probable que ocurra un abuso. Uno podría preguntarse por qué el robot no puede superar el abuso. En nuestras pruebas preliminares probamos varios enfoques, pero descubrimos que es muy difícil para el robot persuadir a los niños de que no lo abusen. Por ejemplo, cambiamos las palabras del robot de muchas maneras, usando palabras fuertes, expresiones emocionales o educadas, pero ninguna de ellas tuvo éxito. Una estrategia parcialmente exitosa fue el robot 'físicamente' empujando a los niños. Cuando se bloqueaba su camino, solo intentaba seguir adelante y comportarse como si chocara con los niños y se abriera paso (bajo un cuidadoso monitoreo de un operador humano). Observamos que los niños al principio aceptaron las solicitudes del robot y las obedecieron; pero, Muy pronto aprendieron que son más fuertes que el robot, por lo que pueden ganar si presionan, y también que pueden detenerlo presionando el interruptor de parachoques (conectado al robot por seguridad). Después de darse cuenta de eso, simplemente continuaron con el comportamiento abusivo. Obviamente, tener un robot más fuerte presentaría un problema para la seguridad y la aceptación social, por lo que lidiar con situaciones tan abusivas sigue siendo difícil.


Pero interroguemos más su pregunta:

Si la IA consciente es posible y está muy extendida, ¿no sería fácil para alguien que sabe lo que está haciendo para torturar la IA?

¿Por qué considerarías que tal tortura está mal ? Después de todo, uno podría argumentar que la máquina realmente no 'experimentará' dolor si la tortura ... así que debería ser moralmente correcto torturar la máquina entonces. Puede responder como si tuviera dolor, pero es dudoso que la capacidad de simular un estado emocional como "tener dolor" sea equivalente a estar realmente en ese estado emocional. Ver la pregunta ¿La simulación de estados emocionales es equivalente a experimentar emociones realmente? para más discusión sobre este tema.

Puede hacer tal argumento, pero realmente no funcionará a nivel emocional porque la mayoría de los humanos sentirían empatía hacia la máquina. Puede ser difícil justificarlo lógicamente (y puede estar basado en las tendencias de los humanos a participar en el antropomorfismo ), pero sentimos esta empatía. Es esta empatía la que te hizo hacer esta pregunta en primer lugar, hizo que los investigadores descubrieran cómo proteger a un robot de ser golpeado, permitió que los agentes de policía arrestaran a un hombre japonés borracho por golpear a un robot SoftBank e hicieron muchos humanos molesto por la destrucción de hitchBOT . Y eso escómo se evitaría el abuso de la IA: la empatía humana. Si la mayoría de los humanos se preocupan por el bienestar de las máquinas, tendrán la prioridad de detener a esos pocos humanos que pueden y están dispuestos a abusar de las máquinas.


EDITAR: El OP ha editado su pregunta para aclarar que está hablando de software y no de robots. Para los robots, puede confiar en el antropomorfismo para producir cierto nivel de simpatía, pero es difícil simpatizar con líneas de código sin formato.

No vas a detener el abuso de algoritmos. En pocas palabras, dado que los algoritmos no son como nosotros, no vamos a extender el mismo tipo de empatía que con los robots. Incluso los chatbots son un poco dudosos. Sin embargo, si logras que las personas simpaticen con las líneas de código (posiblemente haciendo una simulación convincente de emoción y sapiencia), entonces se aplica la respuesta anterior: los humanos antropomorfizan la máquina y proponen contramedidas. Todavía no estamos en ese nivel, por lo que "detener el abuso de IA" será una prioridad baja.

Aún así, algunas cajas de seguridad podrían programarse para limitar el daño del abuso, como se detalla en este hilo sobre abuso de chatbot , haciendo que el bot responda de manera aburrida para que el abusador se sienta aburrido y avance al siguiente objetivo, respondiendo de nuevo al abusador en una "batalla de ingenio", o incluso simplemente bloqueando a los abusadores del uso del servicio.

Estas cajas de seguridad son un consuelo frío para aquellos que desean evitar el abuso, no responder a él.

Además ... un abusador puede aprender felizmente cómo programar una IA para luego abusar del contenido de su corazón. No se puede hacer nada para detener eso, y cualquier medida posible para detener dicho abuso (como monitorear a cada ser humano para asegurarse de que no programe una IA para abusar) probablemente causará más daño del que resolvería.


TBH esto realmente no responde a mi pregunta, supongo, editaré la pregunta un poco más.
Destructible Lemon

1
@TariqAli Gracias por esta publicación. No estaba al tanto del problema relacionado con las interacciones de los niños con los robots sociales, lo que me parece hilarante y conmovedor. (Recuerdo ser un niño pequeño en Disney World y "atacar" a los personajes de Disney consumidos como Mickey Mouse por exceso de adoración).
DukeZhou

6

Le sugiero que mire todas las formas en que hemos tratado de evitar que las personas abusen de OTRAS PERSONAS. No hay un área gris ética aquí: todos tienen claro que esto está mal. Y sin embargo, personas son asesinadas, violadas y agredidas por millones cada día.

Cuando resolvemos este problema con respecto a las víctimas humanas, la solución resultante probablemente funcionará bien también para las IA.


Estaba listo para decir por qué esto no se aplicaba totalmente, pero probablemente tengas razón de todos modos ...
Destructible Lemon

-1

La inteligencia artificial y la perspectiva externa agresiva no se pueden duplicar; el programa no se ha educado o diseñado como nuestra inteligencia natural. Los datos de la inteligencia artificial no se pueden comparar con la inteligencia de las Humanidades de acuerdo con la procesión de pensamiento emocional-social desarrollada al crecer con experiencia porque nuestro diseño no está patentado. Al igual que la programación de IA La vida duplicada a través de la teoría de la ingeniería basada solo en el ejemplo no bastará, la experiencia es un conocimiento creado por el hombre, pero por acción a lo largo del tiempo, no acción diseñada sobre ingeniería de opinión-doctorado-emocional. Sin embargo AI puede usar nuestra entrega emocional con un guión conceptual con un software que, basándose en ejemplos de acciones humanas, predice una respuesta no natural en el caso de que dictar diálogos de un receptor humano que reaccione sin responder como si entendieran que el bot es una artificialidad patentada diseñada en base a nuestra entrega emocional que está escrita a la conversación llegaremos a diagnosticar a través de causa y efecto. No es una experiencia razonable, necesitamos que se convierta en el robot emocional experimentado si la artificialidad y la emoción del robot distinguen nuestra validez. En su lugar, veremos qué resultados obtenemos de los rasgos del software del programa base que hacen que el bot reaccione a la inteligencia artificial experimentada diseñada conceptualmente con mecanismos emocionales de software que no tenemos idea de qué resultados obtenemos artificialmente.


2
1. Por favor, formatee esta publicación mejor, 2. La IA consciente es un axioma de la pregunta, no la pregunta
Destructible Lemon
Al usar nuestro sitio, usted reconoce que ha leído y comprende nuestra Política de Cookies y Política de Privacidad.
Licensed under cc by-sa 3.0 with attribution required.