IAs fuertes
Para una IA fuerte, la respuesta corta es pedir ayuda, cuando ni siquiera saben cuál podría ser la supuesta ayuda.
Depende de lo que haga la IA. Si se supone que resuelve una tarea fácil y única de manera perfecta y profesional, las emociones seguras no serían muy útiles. Pero si se supone que debe aprender cosas nuevas al azar, habría un punto en el que se encontraría con algo que no puede manejar.
En Lee Sedol vs AlphaGo match 4, algunos profesionales que han dicho que la computadora no tiene emociones anteriormente, comentaron que tal vez AlphaGo también tiene emociones, y más fuertes que los humanos. En este caso, sabemos que el comportamiento loco de AlphaGo no es causado por algunas cosas agregadas deliberadamente llamadas "emociones", sino por una falla en el algoritmo. Pero se comporta exactamente como si hubiera entrado en pánico.
Si esto sucede mucho para una IA. Puede haber ventajas si pudiera saber esto por sí mismo y pensarlo dos veces si sucede. Si AlphaGo pudiera detectar el problema y cambiar su estrategia, podría jugar mejor o peor. No es improbable que juegue peor si no hizo ningún cálculo para otros enfoques. En caso de que fuera peor, podríamos decir que sufre de "emociones", y esta podría ser la razón por la que algunas personas piensan que tener emociones podría ser un defecto de los seres humanos. Pero esa no sería la verdadera causa del problema. La verdadera causa es que simplemente no conoce ningún enfoque para garantizar ganar, y el cambio de estrategia es solo un intento de solucionar el problema. Los comentaristas piensan que hay mejores formas (que tampoco garantizan la victoria pero tuvieron más posibilidades), pero su algoritmo no es t capaz de descubrir en esta situación. Incluso para los humanos, es poco probable que la solución a cualquier cosa relacionada con la emoción elimine las emociones, pero se necesita algo de entrenamiento para asegurarse de comprender la situación lo suficiente como para actuar con calma.
Entonces alguien tiene que discutir si esto es un tipo de emoción o no. Usualmente no decimos que los insectos pequeños tienen emociones similares a las de los humanos, porque no los entendemos y no estamos dispuestos a ayudarlos. Pero es fácil saber que algunos de ellos podrían entrar en pánico en situaciones desesperadas, como lo hizo AlphaGo. Diría que estas reacciones se basan en la misma lógica, y son al menos la razón por la cual las emociones humanas podrían ser potencialmente útiles. Simplemente no se expresan de manera comprensible para los humanos, ya que no tenían la intención de pedir ayuda a un humano.
Si intentan comprender su propio comportamiento o llamar a alguien más para pedir ayuda, puede ser bueno ser exactamente humano. Algunas mascotas pueden sentir las emociones humanas y expresar emociones comprensibles por los humanos hasta cierto punto. El propósito es interactuar con los humanos. Evolucionaron para tener esta habilidad porque la necesitaban en algún momento. Es probable que una IA completamente fuerte lo necesite también. También tenga en cuenta que, lo contrario de tener emociones completas podría estar volviéndose loco.
Sin embargo, probablemente sea una forma rápida de perder la confianza si alguien solo implementa emociones que imitan a los humanos con poca comprensión de inmediato en las primeras generaciones.
IAs débiles
Pero, ¿hay algún propósito para que tengan emociones antes de que alguien quiera una IA fuerte? Yo diría que no, no hay ninguna razón inherente para que tengan emociones. Pero inevitablemente alguien querrá implementar emociones imitadas de todos modos. Si "nosotros" necesitamos que tengan emociones no tiene sentido.
El hecho es que incluso algunos programas sin inteligencia contenían algunos elementos "emocionales" en sus interfaces de usuario. Pueden parecer poco profesionales, pero no todas las tareas necesitan profesionalidad, por lo que podrían ser perfectamente aceptables. Son como las emociones en las músicas y las artes. Alguien también diseñará su IA débil de esta manera. Pero en realidad no son las emociones de los AI, sino sus creadores. Si te sientes mejor o peor debido a sus emociones, no tratarás a las IA individuales de manera tan diferente, sino a este modelo o marca en su conjunto.
Alternativamente, alguien podría plantar algunas personalidades como en un juego de rol allí. Una vez más, no hay una razón por la que deben tener eso, pero inevitablemente alguien lo hará, porque obviamente tenían algo de mercado cuando lo hace un juego de rol.
En cualquier caso, las emociones no se originan realmente en la IA en sí. Y sería fácil de implementar, porque un humano no esperará que sean exactamente como un humano, sino que trata de entender lo que pretendían significar. Podría ser mucho más fácil aceptar estas emociones al darse cuenta de esto.
Aspectos de las emociones.
Perdón por publicar una investigación original aquí. Hice una lista de emociones en 2012 y de la que veo 4 aspectos de las emociones. Si se implementan todas, diría que son exactamente las mismas emociones que las de los humanos. No parecen reales si solo se implementan algunos de ellos, pero eso no significa que estén completamente equivocados.
- La razón o el problema lógico original que la IA no puede resolver. AlphaGo ya tenía la razón, pero nada más. Si tengo que hacer una definición precisa, diría que es el estado en el que múltiples heurísticas igualmente importantes no están de acuerdo entre sí.
- El contexto, o qué parte del enfoque actual se considera que no funciona bien y probablemente debería reemplazarse. Esto distingue la tristeza, la preocupación y la pasión.
- El estado actual, o si se siente líder, o si se supone que su creencia o el hecho se volverán malos primero (o fueron malos todo el tiempo) si las cosas salen mal. Esto distingue la tristeza, el amor y el orgullo.
- El plan o solicitud. Supongo que algunas mascotas domesticadas ya tenían esto. Y supongo que estos tenían algunos patrones fijos que no es demasiado difícil de tener. Incluso las artes pueden contenerlos fácilmente. A diferencia de los motivos, es probable que estos no sean inherentes a ningún algoritmo, y varios de ellos pueden aparecer juntos.
- Quien supuestamente tenía la responsabilidad si la emoción no cambia nada. Esto distingue curiosidad, rabia y tristeza.
- ¿Cuál es el supuesto plan si la emoción no cambia nada? Esto distingue la decepción, la tristeza y la sorpresa.
- La fuente. Sin contexto, incluso un humano no puede decir de manera confiable que alguien está llorando por sentirse conmovido o agradecido, o sonriendo por algún tipo de vergüenza. En la mayoría de los otros casos, ni siquiera hay palabras que los describan. No hace mucha diferencia si una IA no distingue o muestra esto especialmente. Es probable que aprendan esto automáticamente (e inexactamente como humanos) en el momento en que puedan aprender a comprender los idiomas humanos.
- Las mediciones, como la urgencia o importancia del problema, o incluso la probabilidad de que las emociones sean ciertas. Yo diría que no se puede implementar en la IA. Los humanos no necesitan respetarlos, incluso si son exactamente como los humanos. Pero los humanos aprenderán a entender una IA si eso realmente importa, incluso si no son como los humanos en absoluto. De hecho, siento que algunas de las emociones extremadamente débiles (como pensar que algo es demasiado estúpido y aburrido que no sabes cómo comentar) existen casi exclusivamente en emoticones, donde alguien tiene la intención de mostrarte exactamente esta emoción, y apenas notable en la vida real o en cualquier escenario complejo. Supuse que esto también podría ser el caso al principio para las IA. En el peor de los casos, en primer lugar se conocen convencionalmente como "emociones", ya que los emoticones funcionan en estos casos, por lo que
Entonces, cuando las IA fuertes se vuelven posibles, ninguna de estas sería inalcanzable, aunque podría haber mucho trabajo para hacer las conexiones. Entonces diría que si hubiera la necesidad de IAs fuertes, absolutamente tendrían emociones.