¿Por qué la ética no está más integrada en los sistemas actuales de IA?


9

Soy un estudiante de doctorado en ciencias de la computación, y actualmente estoy creando una visión general del estado del arte en aplicaciones realizadas en Ética de la máquina (un campo multidisciplinario que combina filosofía e inteligencia artificial, que busca crear programas o agentes éticos explícitos). Parece que el campo contiene principalmente argumentos teóricos y hay implementaciones relativamente pequeñas, a pesar de que hay muchas personas con antecedentes técnicos en el campo.

Entiendo que debido a que la ética está involucrada, no hay una verdad fundamental y dado que es parte de la filosofía, uno puede perderse discutiendo sobre qué tipo de ética debe implementarse y cómo se puede hacer esto mejor. Sin embargo, en informática, es habitual incluso intentar una implementación simple para mostrar las posibilidades o limitaciones de su enfoque.

¿Cuáles son las posibles razones por las que se hace tan poco en implementar explícitamente la ética en la IA y experimentar con ella?


2
Se pueden encontrar ejemplos de enfoques en este y este documento general.
Suzanne

Respuestas:


2

Esta es necesariamente una respuesta de alto nivel y altamente especulativa, pero he estado pensando en esta pregunta, y aquí están mis pensamientos:

  • La implementación de algoritmos éticos requiere una base matemática para la filosofía porque las computadoras son motores de diferencia

Después del famoso fracaso de Russell y Whitehead y el teorema de incompletitud de Gödel, esto parece ser problemático.

  • La IA es un campo altamente aplicado, especialmente hoy en día para la validación continua del aprendizaje profundo, y ninguna empresa quiere acercarse al tema de la ética a menos que se vean obligados a

Por lo tanto, lo ves en autos sin conductor porque los ingenieros no tienen más remedio que lidiar con el problema. Por el contrario, no creo que vea muchas firmas algorítmicas de comercio de acciones, donde el negocio es la eficiencia de Pareto , preocupándose por la ética o los impactos sociales de la especulación financiera. (La solución a los "bloqueos repentinos" parece haber sido reglas para la suspensión temporal del comercio, en lugar de abordar el valor social del comercio algorítmico de alta frecuencia). Un ejemplo más obvio es que las compañías de medios sociales ignoran las cantidades extremas de abuso de información (desinformación y desinformación) que se publican en sus sitios, alegando ignorancia, lo cual es altamente sospechoso porque la actividad generada por el abuso de información afecta positivamente sus resultados.

  • Los campos aplicados tienden a ser predominantemente impulsados ​​por las ganancias

La directiva principal de las corporaciones es devolver una ganancia a los inversores. No es raro que las corporaciones infrinjan la ley cuando se espera que las multas y sanciones sean menores que las ganancias obtenidas por la actividad ilegal. (Existe el concepto de ética en los negocios, pero la cultura en general parece juzgar a las personas y a las empresas en función de cuánto dinero ganan, independientemente de los medios).

  • La implementación de la ética de la máquina se está explorando en áreas donde son necesarias para vender el producto, pero en otros lugares, sigue siendo en gran medida hipotético.

Si las superinteligencias evolucionan y aniquilan a la humanidad (como nos advierten algunas personas muy inteligentes con habilidades matemáticas superiores), creo que será una función de la naturaleza, donde la evolución irrestricta de estos algoritmos se debe a factores económicos que se centran en hiper autómatas partidistas en industrias como la especulación financiera y la guerra autónoma. Esencialmente, persiguiendo ganancias a toda costa, independientemente de los impactos.


Interesante toma, el aspecto de ganancias! No había pensado en eso ya que estaba tan concentrado en las razones de la investigación, pero tiene sentido que la industria tampoco ejerza presión para que la investigación continúe.
Suzanne

@SuzanneTolmeijer Gracias. Llevo unos años profundizando en cómo la teoría de juegos se conecta con la ética. (Principalmente filosofía temprana donde, por ejemplo, se decía que el "equilibrio" era el "bueno": el equilibrio es una función de equilibrio y puede definirse matemáticamente de manera precisa. Se relaciona con la economía en que la estabilidad generalmente se entiende como óptima, donde la inestabilidad es potencialmente catastrófica.) Pero no soy el único contribuyente de IA que ha tocado los impulsores económicos en este campo, y los peligros potenciales de lo que denomino "IA hiperpartidista".
DukeZhou

1

Creo que parte del problema de por qué las implementaciones éticas de las tecnologías de IA / ML son muy escasas es simplemente porque no hay necesidad o la aplicación adecuada de los marcos teóricos.

Con esto quiero decir, no hay formas sustanciales de aplicar esta comprensión a algoritmos y modelos que no pueden interactuar de manera significativa. Tenemos un marco teórico tan amplio sobre la seguridad / ética de la IA porque es extremadamente importante. Necesitamos elaborar pautas seguras para implementar una IA fuerte antes de que se cree.

Algunos documentos muy centrados han comenzado a reducir los problemas en la creación de sistemas de IA éticos / seguros. Ver problemas concretos en seguridad de IA


Parece existir una necesidad de ética explícita, al menos muchos investigadores piden el avance de la ética explícita (por ejemplo, Moor 2006 ). En términos de la aplicación adecuada de los marcos teóricos, podría tener razón: la implementación implica cierta interpretación en algunos casos, lo que puede resultar difícil. Sin embargo, usted acepta que las pautas seguras para la IA son importantes, lo que significa pautas prácticas sobre lo que consideramos "correcto" o "ético" para nuestras máquinas. Estas pautas implicarán cómo implementar la ética en las máquinas de alguna manera.
Suzanne

1

Con el método de imitación, el comportamiento más apropiado puede integrarse en la inteligencia artificial. La inteligencia artificial puede ser reformada cuando cambia la posición ética. Se utiliza con fines ideológicos o para recopilar información. No está claro qué es el robot.


1

Podemos llevar el modelo de error al contador. Reconocer el sesgo y la variación entre el rendimiento en redes neuronales puede ser un primer paso. Y luego podemos discutir si tal rendimiento está permitido. Hasta donde sabemos, la práctica étnica requiere un estudio empírico y de campo. no podemos simplemente tomar razones y ensayos en papel para determinar si las máquinas aprendidas están mal o no. Se puede dividir aún más en accidentes, errores o incluso errores creados por los desarrolladores.


Básicamente, un punto interesante que plantea aquí es qué medidas se pueden utilizar para probar el sistema y cómo se determina si el sistema está funcionando con precisión. Esto es algo que falta en el campo, y creo que es parte del problema: ¿cómo probar su sistema sin una verdad básica? ¿Qué medidas (de dimensiones) tienen sentido en el contexto de algoritmos éticos explícitos? Sin eso, no tiene forma de comparar sistemas, lo que limita el progreso en el campo.
Suzanne

1

Intuitivamente hablando, parece ser que hay poca investigación sobre la implementación de la ética de la IA porque:

  1. La sociedad en su conjunto parece estar de acuerdo cómodamente en que el estado actual de la inteligencia artificial no es lo suficientemente fuerte como para ser considerado consciente o sensible. Por lo tanto, no necesitamos otorgarle derechos éticos (todavía).

  2. La implementación de un comportamiento ético en un programa requiere un método para que las computadoras sean capaces de interpretar el "significado", que aún no sabemos cómo hacer.

Al usar nuestro sitio, usted reconoce que ha leído y comprende nuestra Política de Cookies y Política de Privacidad.
Licensed under cc by-sa 3.0 with attribution required.