Esta es una pregunta importante para la IA, quizás la más importante de todas, para el campo de investigación de la Inteligencia Artificial . Quiero decir que si la IA es ciencia, entonces sus experimentos serán empíricamente comprobables. Tiene que haber una manera de decidir pasar o fallar. Entonces, ¿cuáles son las pruebas de inteligencia? Antes de diseñar una prueba, necesita una idea clara de lo que equivale a la inteligencia, de lo contrario, ¿cómo podría diseñar una prueba competente para ella?
Claro, soy parte del proyecto de investigación y desarrollo conocido como Building Watertight Submarines, y estoy seguro de que mi submarino es hermético, pero no tengo idea de cómo probar si es o no porque no lo sé qué significa "hermético". Toda esta idea es absurda. Pero pregúntele a AI qué significa "inteligencia". Las respuestas que obtienes, en el análisis, son casi las mismas que en el ejemplo del submarino.
Respuesta básica: comportamiento
La palabra (idea, concepto) "Inteligencia" generalmente es definida por AI en términos de comportamiento. Es decir, el enfoque de prueba de Turing. Una máquina es inteligente si se comporta de una manera que, si un humano se comportara de la misma manera, se diría que el humano realiza una acción que requiere inteligencia humana.
Problema 1 : los pianos del jugador son inteligentes. Tocar una melodía de Scott Joplin obviamente requiere inteligencia en un humano.
Problema 2 . Si una máquina pasa la prueba, solo muestra que la máquina es "inteligente" para los comportamientos probados. ¿Qué pasa con los comportamientos no probados? Esto es realmente un problema de vida o muerte hoy en día con los sistemas de control de IA de vehículos autónomos. Los sistemas de IA son aceptablemente buenos para conducir un automóvil (lo que obviamente requiere inteligencia humana) en entornos específicos, por ejemplo, autopistas con carriles bien marcados, sin curvas cerradas y una barrera mediana que separa las dos direcciones. Pero los sistemas van desastrosamente mal en "casos extremos" - situaciones inusuales.
Problema 3 . ¿Quién pondría a su hijo en un autobús escolar conducido por un robot que pasó la prueba de Turing para conducir autobuses escolares? ¿Qué pasa con una tormenta cuando una línea de energía eléctrica cae al otro lado de la carretera? ¿O un tornado en la distancia viene por aquí? ¿Qué pasa con mil otras posibilidades no probadas? Un padre responsable querría saber (a) cuáles son los principios de los procesos internos y las estructuras de la inteligencia humana, y (b) que el conductor del bus digital tenía procesos y estructuras internas adecuadamente similares, es decir, no el comportamiento sino los elementos internos correctos , la causalidad interna correcta.
Respuesta deseada: principios internos
Me gustaría saber que la máquina estaba ejecutando los procesos internos correctos y que estaba ejecutando estos procesos (algoritmos) en las estructuras internas (memoria) correctas. El problema es que nadie parece saber cuáles son los procesos internos y las estructuras correctas de la inteligencia humana. (Un gran problema para estar seguro, pero uno que no ha frenado la IA, o los desarrolladores de sistemas autónomos, un poco). La implicación de esto es que lo que la IA debería estar haciendo ahora es resolver cuáles son los procesos internos. y estructuras de inteligencia humana. Pero no está haciendo esto, sino que está comercializando su tecnología defectuosa.
Elementos de una definición - 1. Generalización
Sí sabemos algunas cosas sobre la inteligencia humana. Algunas pruebas realmente prueban si una máquina tiene ciertas propiedades de la mente humana. Una de estas propiedades es la generalización. En su artículo de 1950, Turing, como una especie de broma, dio un muy buen ejemplo de generalización conversacional: (El testigo es la máquina).
"Interrogador: en la primera línea de su soneto que dice '¿Te comparo con un día de verano', no sería 'mejor o mejor un' día de primavera '?
Testigo: No escanearía.
Interrogador: ¿Qué tal "un día de invierno"?
Testigo: Sí, pero nadie quiere ser comparado con un día de invierno.
Interrogador: ¿Diría que el Sr. Pickwick le recordó la Navidad?
Testigo: En cierto modo.
Interrogador: Sin embargo, la Navidad es un día de invierno, y no creo que al Sr. Pickwick le importe la comparación.
Testigo: No creo que hables en serio. Por desollamiento de invierno se entiende un día típico de invierno, en lugar de uno especial como la Navidad ".
La IA actual no tiene nada que se acerque remotamente a poder generalizar de esta manera. La falta de generalización se considera quizás la mayor falla de la IA actual. La capacidad de generalizar sería una parte de una definición adecuada de "inteligencia". Pero lo que equivale a generalización necesitaría ser explicado.
El problema de la generalización, también, está detrás de varias objeciones filosóficas severas a la teoría de la IA, incluido el problema del marco, el problema del conocimiento del sentido común y el problema de la explosión combinatoria.
Elementos de una definición - 2. Percepción
La percepción sensorial es, obviamente, fundamental para el aprendizaje y la inteligencia humana. Los datos (de alguna forma) son emitidos por los sentidos humanos y luego procesados por el sistema central. En la computadora, los valores binarios salen del sensor digital y viajan a la máquina. Sin embargo, nada en los valores mismos indica lo que se detectó. Sin embargo, lo único que obtiene la computadora son los valores binarios. ¿Cómo podría la máquina llegar a saber lo que se siente? (El clásico problema de argumento de la sala china).
Entonces, otro elemento de la inteligencia humana es la capacidad de percibir de una manera humana. Lo que significa "forma humana" aquí es que la máquina procesa información sensorial utilizando los mismos principios que se aplican en la percepción humana. El problema es que nadie parece saber cómo se puede construir una semántica (conocimiento) a partir de los datos emitidos por sensores digitales (o sentidos orgánicos). Pero aún así, la percepción similar a la humana debe ser un elemento de una definición adecuada de "inteligencia".
Una vez que la IA solucione estos dos problemas: generalización y percepción, probablemente, con suerte , estará en camino de alcanzar su objetivo original de casi 70 años: construir una máquina con (o que pueda adquirir) un aspecto humano inteligencia general. Y tal vez los principios de generalización y los principios de percepción son uno y el mismo. Y tal vez en realidad solo hay un principio. No debe suponerse que las respuestas son complejas. A veces, las cosas más difíciles de entender son las más simples.
Entonces, la pregunta "¿Qué queremos decir cuando decimos" inteligencia "? Es realmente importante para la IA. Y la conclusión es que la IA debería reemplazar su definición de comportamiento actual de" inteligencia "con una que incluya los elementos humanos de generalización y percepción. Y luego continúe e intente elaborar los principios operativos, o principio, de ambos.