¿El argumento de la Sala China es válido contra la IA?


10

De vuelta en la universidad, tuve un maestro de teoría de la complejidad que afirmó que la inteligencia artificial era una contradicción en los términos. Si se podía calcular mecánicamente, argumentó, no era inteligencia, era matemática.

Esto parece ser una variante del argumento de la Sala China. Este argumento es una metáfora, donde se coloca a una persona en una habitación llena de libros chinos. Esta persona no entiende una palabra de chino, pero tiene mensajes deslizados en chino debajo de la puerta. La persona tiene que usar los libros, que contienen reglas de transformación, para responder estos mensajes. La persona puede aplicar las reglas de transformación pero no entiende qué (s) está comunicando.

¿Es válido el argumento de la sala china? ¿Podemos argumentar que la inteligencia artificial es simplemente algoritmos inteligentes?

Respuestas:


5

Hay dos tipos generales de respuestas a consultas filosóficas como esta.

El primero es hacer analogías y referirse a la intuición; se podría, por ejemplo, calcular el tamaño necesario para una habitación china de este tipo y sugerir que existe fuera del ámbito de la intuición y, por lo tanto, cualquier analogía que la use es sospechosa.

El segundo es tratar de definir los términos con mayor precisión. Si por "inteligencia" no queremos decir "lo mágico que hacen los humanos" sino "procesamiento de información", entonces podemos decir "sí, obviamente la Sala China implica un procesamiento de información exitoso".

Tiendo a preferir el segundo porque fuerza las conversaciones hacia resultados observables y pone la dificultad de definir un término como "inteligencia" en la persona que quiere hacer afirmaciones al respecto. Si se permite que "comprensión" tenga una definición amorfa, entonces se podría decir que cualquier sistema tiene o no comprensión. Pero si "entender" se entiende en términos de comportamiento observable, entonces se vuelve cada vez más difícil construir un ejemplo de un sistema que "no sea inteligente" y que sin embargo comparta todas las consecuencias observables de la inteligencia.


5

Depende de la definición de inteligencia (artificial).

La posición que Searle originalmente intentó refutar con el experimento de la sala china era la llamada posición de una IA fuerte: una computadora debidamente programada tendría una mente en el mismo sentido que los humanos.

Alan Turing intentó dar una definición de inteligencia artificial con la prueba de Turing, afirmando que una máquina es inteligente si puede pasar la prueba. La prueba de Turing se presenta aquí . No lo explicaré en detalle porque no es realmente relevante para la respuesta. Si define la inteligencia (artificial) como lo hizo Turing, entonces el experimento de la sala china no es válido.

Entonces, el objetivo del experimento de la sala china es mostrar que una computadora debidamente programada no es lo mismo que una mente humana y, por lo tanto, que la prueba de Turing no es buena.


La "IA fuerte" se usa típicamente para referirse a la IA que es lo suficientemente inteligente como para mejorar, no es que tenga una "mente" en el sentido de que los humanos tienen "mentes".
Matthew Graves el

4

En primer lugar, para obtener una vista detallada del argumento, consulte la entrada SEP en la Sala de China .

Considero a la CRA como un indicador de su definición de inteligencia. Si el argumento es válido, sí, la persona en la sala entiende chino. Sin embargo, resumamos las tres respuestas discutidas en la entrada SEP:

  1. El hombre mismo no entiende chino (no podría entenderlo fuera de la habitación), pero el sistema hombre + habitación lo entiende. Aceptar esa respuesta sugiere que puede existir un sistema inteligente cuyas partes no son en sí mismas inteligentes (lo que se puede argumentar sobre el propio cuerpo humano).

  2. El sistema no entiende chino, ya que no puede interactuar con el mundo de la misma manera que un robot o un humano podrían (es decir, no puede aprender, está limitado en el conjunto de preguntas que puede responder)

  3. El sistema no entiende chino (dependiendo de su definición de comprensión ), y tampoco podría decir que un humano realiza las mismas hazañas que la sala de chino entiende chino.

Entonces, si el argumento, o una variante del mismo, depende de sus definiciones de inteligencia , comprensión , de cómo define el sistema, etc. El punto es que el experimento mental es una buena manera de diferenciar entre las definiciones (y muchas, se han celebrado muchos debates sobre ellos), para evitar hablar interminablemente entre ellos.


Gran respuesta. No existe tal cosa como la cognición que ocurre fuera de un sistema más amplio. Los humanos han usado tecnología como libros y herramientas durante mucho tiempo para complementar su cognición. Antes de eso, los humanos dependían de otros humanos y del entorno natural (dejando un marcador para indicar una fuente de alimento, etc.).

2

¡Depende de a quién le preguntes! John Searle, quien propuso este argumento, diría "sí", pero otros dirían que es irrelevante. La prueba de Turing no estipula que una máquina realmente debe "entender" lo que está haciendo, siempre que parezca así para un humano. Se podría argumentar que nuestro "pensamiento" es solo una forma más sofisticada de algoritmos inteligentes.

Al usar nuestro sitio, usted reconoce que ha leído y comprende nuestra Política de Cookies y Política de Privacidad.
Licensed under cc by-sa 3.0 with attribution required.