¿Podría una IA pensar lateralmente mientras evita las elecciones "éticamente subóptimas"?


13

En el reciente juego de PC The Turing Test , la IA ("TOM") necesita la ayuda de Ava para atravesar algunas salas de rompecabezas. TOM dice que no puede resolver los acertijos porque no se le permite " pensar lateralmente ". Específicamente, dice que no habría pensado tirar una caja a través de una ventana para resolver la primera habitación. Sus creadores, según la historia, desactivaron esa capacidad porque tal pensamiento podría producir soluciones "éticamente subóptimas", como cortarse un brazo para dejarlo en una placa de presión.

¿Deberían eliminarse todas las habilidades creativas de resolución de rompecabezas de una IA para mantener sus resultados razonables, o podríamos obtener algunos beneficios del pensamiento lateral sin perder un brazo?

Respuestas:


17

No , con un pero . Podemos tener una resolución de problemas creativa pero ética si el sistema tiene un sistema ético completo, pero de lo contrario la creatividad será insegura por defecto.

Se pueden clasificar los enfoques de toma de decisiones de IA en dos tipos: pensadores interpolativos y pensadores extrapolativos.

Los pensadores interpolativos aprenden a clasificar e imitar todo lo que están aprendiendo, y no intentan dar resultados razonables fuera de su dominio de capacitación. Puede considerarlos como una interpolación entre ejemplos de capacitación y que se benefician de todas las garantías y condiciones matemáticas como otras técnicas estadísticas.

Los pensadores extrapolativos aprenden a manipular los principios subyacentes, lo que les permite combinar esos principios de formas previamente no consideradas. El campo relevante para la intuición aquí es la optimización numérica , de los cuales el ejemplo más simple y famoso es la programación lineal , en lugar de los campos estadísticos que dieron lugar al aprendizaje automático. Puede pensar en ellos como extrapolando más allá de los ejemplos de entrenamiento (de hecho, muchos de ellos ni siquiera requieren ejemplos de entrenamiento, o usar esos ejemplos para inferir principios subyacentes).

La promesa de los pensadores extrapolativos es que pueden llegar a estas soluciones "laterales" mucho más rápido de lo que las personas podrían hacerlo. El problema con estos pensadores extrapolativos es que solo usan los principios hablados, no ninguno que parezca demasiado obvio para mencionar.

Un atributo de las soluciones a los problemas de optimización es que el vector de características suele ser "extremo" de alguna manera. En la programación lineal, al menos un vértice del espacio de solución factible será óptimo, por lo que los métodos de solución simples encuentran un vértice óptimo (que es casi inviable por naturaleza de ser un vértice).

Como otro ejemplo, la solución de combustible mínimo para mover una nave espacial de una posición a otra se llama ' bang-bang ', donde aceleras la nave lo más rápido posible al principio y al final de la trayectoria, navegando a la velocidad máxima en el medio .

Si bien es una virtud cuando el sistema se entiende correctamente (bang-bang es óptimo para muchos casos), esto es catastrófico cuando el sistema se entiende incorrectamente. Mi ejemplo favorito aquí es el problema de la dieta de Dantzig (la discusión comienza en la página 5 del pdf), donde intenta optimizar su dieta usando las matemáticas. Bajo su primer conjunto de restricciones, se supone que debe beber 500 galones de vinagre al día. Bajo su segundo, 200 cubitos de caldo. Debajo de su tercero, dos libras de salvado. Las consideraciones que hacen que esas ideas obviamente malas no estén incluidas en el sistema, por lo que el sistema las sugiere inocentemente.

Si puede codificar completamente el conocimiento y los valores que una persona usa para juzgar estos planes en la IA, entonces los sistemas extrapolativos son tan seguros como esa persona. Podrán considerar y rechazar el tipo incorrecto de planes extremos, y dejarlo con el tipo correcto de planes extremos.

Pero si no puede, entonces tiene sentido no construir un tomador de decisiones extrapolativo, y en su lugar construir uno interpolativo. Es decir, en lugar de preguntarse "¿cómo logro mejor el objetivo X?" se pregunta "¿qué haría una persona en esta situación?". Este último podría ser mucho peor para lograr el objetivo X, pero tiene mucho menos riesgo de sacrificar otros objetivos para lograr X.


2

La ética involucra las relaciones de necesidades entre dos o más partes. Como dijo Matthew Graves, si la IA carece del contexto humano suficiente (comprensión de las necesidades), producirá un comportamiento ético aparentemente perverso.

Y seamos honestos, algunas personas cortarían los brazos de otras personas y las pondrían en placas de presión. Incluso los mejores de nosotros no podremos simpatizar con las necesidades de los demás con una precisión del 100%, en el mejor de los casos, estamos suponiendo. Y luego están esas situaciones raras en las que realmente quiero que me cortes el brazo y lo pongas en una placa de presión, tal vez para salvar a un ser querido.

Si pudiéramos hacer algo que pudiera simpatizar con lo que un humano podría necesitar en una situación arbitraria dada, entonces habremos creado A) una inteligencia humana artificial (AHI) (que podría ser más o menos falible, como un humano), o B) un oráculo que puede razonar sobre todas las posibles necesidades humanas en mucho más rápido que las escalas de tiempo humanas, en cuyo caso no necesitaría una IA consciente, ya que todas las necesidades y soluciones humanas podrían calcularse previamente a través de una especificación formal, que Es probablemente absurdo considerarlo.


0

También puede considerar la programación como una parte ética del diseño. La inteligencia artificial actuará según lo que se le haya indicado como éticamente importante o no. Puede / debería incluso ser parte de los parámetros que forjan el proceso de búsqueda de soluciones, lo que podría permitir una solución más refinada y creativa.

Entendemos los conceptos básicos de la ética en circunstancias normales, pero si no podemos predecir cómo se comportará un humano en un enigma ético, podemos hacer cumplir lo que una IA no haría.

Mientras tengamos control sobre el mecanismo que impulsa una IA, tenemos la responsabilidad de inyectar a prueba de fallas éticas. El problema radica en la IA autodidacta con la capacidad de anular las directivas. (Leyes CF Asimov.)

La forma en que la IA es creativa parece irrelevante en ese caso.


-1

Mucho de esto depende de la amplitud de consideración. Por ejemplo, ¿cuáles serían los efectos a medio y largo plazo del pensamiento lateral? El robot podría cortar un brazo por una placa de presión, pero significaría que la persona ya no tenía un brazo, una limitación funcional en el mejor de los casos, que la persona podría desangrarse y morir / estar severamente limitada, y que la persona (y las personas en general) ya no cooperarían y probablemente tratarían de eliminar el robot. Las personas pueden pensar lateralmente porque consideran estas cosas: la ética no es más que un conjunto de pautas que abarcan estas consideraciones. El robot también podría, si fuera diseñado para considerar estas externalidades.

Si todo lo demás falla,

Leyes de robótica de Asimov: (0. Un robot no puede dañar a la humanidad o, por inacción, permitir que la humanidad sufra daños). 1. Un robot no puede dañar a un ser humano o, por inacción, permitir que un ser humano venga a daño. 2. Un robot debe obedecer las órdenes dadas por los seres humanos, excepto cuando tales órdenes entren en conflicto con la Primera Ley. 3. Un robot debe proteger su propia existencia siempre que dicha protección no entre en conflicto con la Primera o Segunda Ley

Al usar nuestro sitio, usted reconoce que ha leído y comprende nuestra Política de Cookies y Política de Privacidad.
Licensed under cc by-sa 3.0 with attribution required.