¿Debo usar un lenguaje antropomórfico al hablar de IA?


9

El idioma inglés no es adecuado para hablar sobre inteligencia artificial, lo que dificulta que los humanos se comuniquen entre sí sobre lo que realmente está haciendo una IA. Por lo tanto, puede tener más sentido usar términos "similares a los humanos" para describir las acciones de la maquinaria, incluso cuando las propiedades internas de la maquinaria no se parecen a las propiedades internas de la humanidad.

El lenguaje antropomórfico se había utilizado mucho en tecnología (consulte la definición de antropomorfización del Hacker's Dictionary , que intenta justificar el uso de términos antropórficos por parte de los programadores de computadoras al describir la tecnología), pero a medida que la IA continúa avanzando, puede ser útil considerar las compensaciones de utilizando lenguaje antropomórfico en la comunicación a audiencias técnicas y no técnicas. ¿Cómo podemos manejar bien la IA si ni siquiera podemos describir lo que estamos haciendo?

Supongamos que quiero desarrollar un algoritmo que muestre una lista de artículos relacionados. Hay dos formas en que puedo explicar cómo funciona el algoritmo para un laico:

  1. Muy antropomórfico : el algoritmo lee todos los artículos en un sitio web y muestra los artículos que son muy similares al artículo que está viendo.
  2. Muy técnico : el algoritmo convierte cada artículo en una "bolsa de palabras" y luego compara la "bolsa de palabras" de cada artículo para determinar qué artículos comparten las palabras más comunes. Los artículos que comparten más palabras en las bolsas son los que se muestran al usuario.

Obviamente, el # 2 puede ser más "técnicamente correcto" que el # 1. Al detallar la implementación del algoritmo, es más fácil para alguien entender cómo solucionar el algoritmo si produce un resultado con el que no estamos de acuerdo.

Pero el número 1 es más legible, elegante y más fácil de entender. Proporciona una idea general de lo que está haciendo el algoritmo, en lugar de cómo lo está haciendo el algoritmo. Al abstraer los detalles de implementación de cómo una computadora "lee" el artículo, podemos enfocarnos en usar el algoritmo en escenarios del mundo real.

¿Debería, por lo tanto, preferir usar el lenguaje antropomórfico como se enfatiza en la Declaración # 1? ¿Si no, porque no?

PD: Si la respuesta depende de la audiencia con la que estoy hablando (una audiencia no técnica puede preferir la # 1, mientras que una audiencia técnica puede preferir la # 2), házmelo saber también.

Respuestas:


7

Si la claridad es su meta, usted debe tratar de evitar el lenguaje antropomórfico - de este modo corre el peligro de que incluso engañar a ti mismo acerca de las capacidades del programa.

Esta es una trampa perniciosa en la investigación de IA, con numerosos casos en los que incluso investigadores experimentados han atribuido a un programa un mayor grado de comprensión de lo que realmente se merece.

Douglas Hofstadter describe el tema con cierta extensión en un capítulo titulado "El efecto inertedicable de Eliza y sus peligros" y también hay un famoso artículo de Drew McDermot, titulado "La inteligencia artificial se encuentra con la estupidez natural" .

Por lo tanto, en general, se debe hacer un esfuerzo particular para evitar el antropomorfismo en la IA. Sin embargo, cuando se dirige a una audiencia no técnica, las descripciones de "sonido" son aceptables (como en cualquier disciplina compleja) siempre que se le informe a la audiencia que están obteniendo la versión simplificada .


3

El problema al que hace referencia no es solo un problema de IA, sino un problema para campos altamente técnicos en general. En caso de duda, siempre recomendaría usar un lenguaje sencillo .

Sin embargo, hay otra razón por la cual la comunidad de IA a menudo evitará las connotaciones antropomórficas para la IA. A algunas luminarias de IA a menudo les gusta advertirnos que una inteligencia general artificial puede comportarse de formas extrañas que desafían nuestras expectativas humanas, lo que podría conducir a un apocalipsis robot.

Sin embargo, esta idea sobre los AGI malvados parecidos a los extraterrestres se deriva de un malentendido generalizado en la comunidad de IA que combina dos nociones diferentes de generalidad:

  • Generalidad de la máquina de Turing, y
  • generalidad del dominio humano

Lo que la gente común quiere decir cuando dice generalidad es lo posterior. Incluso la definición oficial de AGI depende de ese contexto contingente humano:

... realizar cualquier tarea intelectual que pueda hacer un ser humano.

Pero según esa definición, el comportamiento generalizador no lo hace más extraño. Generalizar es antropomorfizar. Como dijo Nietzche:

"Donde ves cosas ideales, yo veo ... ¡humanos, por desgracia! Cosas demasiado humanas".


1

Creo que la respuesta correcta es fácil pero inútil, "depende".

Incluso cuando hablo con otras personas técnicas, a menudo uso metáforas y lenguaje antropomórfico. Especialmente al comienzo de la conversación. "La computadora tiene que averiguar ..." "¿Cómo podemos evitar que la computadora se confunda acerca de ..." etc. Claro, podríamos decirlo de una manera más técnicamente correcta. "Necesitamos modificar el algoritmo para reducir el número y la variedad de instancias de datos inadecuados que resultan en una configuración inexacta de ..." o algo así. Pero entre los técnicos, sabemos a qué nos referimos, y es más fácil usar un lenguaje metafórico.

Cuando intento resolver problemas técnicos informáticos, a menudo empiezo con un concepto vago y antropomórfico. "Deberíamos hacer una lista de todas las palabras en el texto y asignar un peso a cada palabra en función de la frecuencia con la que ocurre. Ah, pero debemos ignorar las palabras cortas y comunes como 'the' y 'it'. Luego, escojamos algunas número de palabras, tal vez diez o más, que tienen el mayor peso ... "Todo eso está muy lejos de cómo la computadora realmente manipula los datos. Pero a menudo es mucho más fácil pensarlo primero en términos "humanos" y luego descubrir cómo hacer que la computadora lo haga.

Cuando hablo con una audiencia no técnica, creo que el problema es que el lenguaje antropomórfico hace que sea más fácil de entender, pero también a menudo da la impresión de que la computadora es mucho más humana de lo que realmente es. Solo necesita ver películas de ciencia ficción para ver que aparentemente mucha gente piensa que una computadora o un robot piensa igual que una persona, excepto que es muy preciso y no tiene emociones.

Al usar nuestro sitio, usted reconoce que ha leído y comprende nuestra Política de Cookies y Política de Privacidad.
Licensed under cc by-sa 3.0 with attribution required.