¿Para qué serviría el desarrollo de IA que experimenten emociones similares a las de los humanos?


19

En un artículo reciente del Wall Street Journal , Yann LeCunn hace la siguiente declaración:

El siguiente paso para lograr el ai a nivel humano es crear máquinas inteligentes, pero no autónomas. El sistema de inteligencia artificial en su automóvil lo llevará a su hogar de manera segura, pero no elegirá otro destino una vez que haya entrado. A partir de ahí, agregaremos impulsos básicos, junto con emociones y valores morales. Si creamos máquinas que aprenden tan bien como nuestros cerebros, es fácil imaginar que hereden cualidades y defectos similares a los humanos.

Personalmente, generalmente he tomado la posición de que hablar de emociones por inteligencias artificiales es una tontería, porque no habría razón para crear IA que experimenten emociones. Obviamente Yann no está de acuerdo. Entonces la pregunta es: ¿a qué fin serviría hacer esto? ¿Una IA necesita emociones para servir como una herramienta útil?


1
Posible duplicado de ¿Por qué alguien querría simular la toma de decisiones emocionales dentro de una IA? La respuesta aceptada ("Meh, será más fácil para los programadores humanos mantener los programas de IA") puede no ser emocionante o maravillosa, pero al menos parece semisensible y razonable.
Izquierda SE el 10_6_19

También hay una posibilidad alternativa: no necesariamente queremos desarrollar IA que experimenten emociones similares a las de los humanos (porque entonces serían impredecibles, tendríamos que darles derechos, bla, bla, bla), pero esas técnicas de IA más avanzadas (como el aprendizaje profundo) inadvertidamente desarrollará IA que experimenten emociones similares a las de los humanos. No es que los queramos, es que pueden venir de todos modos. ¿Los agentes de aprendizaje artificial de refuerzo importan moralmente? discute esta posibilidad.
Izquierda SE el 10_6_19

Respuestas:


11

La respuesta a esta pregunta, a diferencia de muchos en este foro, creo que es definitiva. No. No necesitamos que las IA tengan emoción para ser útiles, como podemos ver por la cantidad de IA que ya tenemos que son útiles.

Pero para abordar aún más la cuestión, realmente no podemos expresar las emociones de AI. Creo que lo más cercano que podemos llegar sería '¿Podemos hacer que esta IA actúe de una manera que lo haría un humano si ese humano fuera insert emotion?'. Supongo que, en cierto sentido, eso es tener emoción, pero esa es otra discusión.

¿Y con qué fin? La única razón inmediata que viene a la mente sería crear compañeros o interacciones más realistas, con fines de videojuegos u otros entretenimientos. Un objetivo justo,
pero lejos de ser necesario. Incluso teniendo en cuenta un robot de saludo imbuido de IA en el vestíbulo de algún edificio, probablemente solo queremos que actúe cordialmente.

Yann dice que la IA súper avanzada conduciría a cualidades y defectos más parecidos a los humanos . Creo que es más como si 'le diera a nuestra IA cualidades más humanas o, en otras palabras, defectos'. Las personas tienden a actuar irracionalmente cuando están tristes o enojados, y en su mayor parte solo queremos una IA racional.
Errar es humano, como dicen.

El propósito de la IA y los algoritmos de aprendizaje es crear sistemas que actúen o 'piensen' como los humanos, pero mejor. Sistemas que pueden adaptarse o evolucionar, mientras se estropea lo menos posible. La IA emotiva tiene usos, pero ciertamente no es un requisito previo para un sistema útil.


5

Creo que la pregunta fundamental es: ¿Por qué incluso intentar construir una IA? Si ese objetivo es claro, proporcionará claridad sobre si tener o no tener cociente emocional en IA tiene sentido. Algunos intentos como "Paro" que se desarrollaron por razones terapéuticas requieren que exhiban algunas emociones humanas. Nuevamente, tenga en cuenta que "mostrar" emociones y "sentir" emociones son dos cosas completamente diferentes.

Puede programar algo como paro para modular los tonos de voz o las sacudidas faciales para expresar simpatía, afecto, compañía o lo que sea, pero al hacerlo, un paro NO empatiza con su propietario, simplemente está fingiendo al realizar las manifestaciones físicas. de una emoción Nunca "siente" nada remotamente más cerca de lo que esa emoción evoca en el cerebro humano.

Entonces esta distinción es realmente importante. Para que sientas algo, debe haber un sujeto autónomo e independiente que tenga la capacidad de sentir. El sentimiento no puede ser impuesto por un agente humano externo.

Volviendo a la pregunta de qué propósito resuelve, la respuesta realmente es, depende. Y lo máximo que creo que lograremos con las IA basadas en silicona seguirá siendo el dominio de las representaciones físicas de las emociones.


Tiendo a estar de acuerdo. Y tal vez mi pensamiento es demasiado limitado, pero la mayoría de las aplicaciones de IA en las que pienso no se beneficiarían si la IA tuviera emociones. Bueno, al menos eso creo, sentado aquí ahora. Quizás algún día mire hacia atrás y me dé cuenta de que estaba equivocado.
mindcrime

Exigir que la IA deba / deba tener emociones es una expectativa fuera de lugar. La IA básicamente es un conjunto de herramientas y, por lo tanto, su aplicación también debe decidirse en función de las necesidades. Algunos casos de uso pueden requerir un aspecto emocional, otros no. ¡Quién sabe!
Kingz

4

Creo que las emociones no son necesarias para que un agente de IA sea útil. Pero también creo que podrían hacer que sea mucho más agradable trabajar con el agente. Si el bot con el que estás hablando puede leer tus emociones y responder de manera constructiva, la experiencia de interactuar con ella será tremendamente más placentera, tal vez espectacularmente.

Imagine ponerse en contacto con un representante humano del centro de llamadas hoy para presentar una queja sobre su factura o un producto. Anticipas el conflicto. Incluso puede haber decidido NO llamar porque sabe que esta experiencia va a ser dolorosa, ya sea combativa o frustrante, ya que alguien no entiende lo que dice o responde de manera hostil o estúpida.

Ahora imagine llamar a la persona de atención al cliente más amable, inteligente y centrada que haya conocido, Commander Data, cuya única razón para existir es hacer que esta llamada sea lo más placentera y productiva posible. Una gran mejora sobre la mayoría de los representantes de llamadas, ¿sí? Imagínese entonces si el representante de llamadas Data también podría anticipar su estado de ánimo y responder adecuadamente a sus quejas para calmar su estado emocional ... desearía casarse con este tipo. Llamaría datos de representante de llamadas cada vez que se sintiera triste o aburrido o quisiera compartir una noticia feliz. Este chico se convertiría en tu mejor amigo de la noche a la mañana, literalmente amor a primera llamada.

Estoy convencido de que este escenario es válido. Me he dado cuenta de una sorprendente atracción por personajes como Data o Sonny de "I Robot". La voz es muy suave y me tranquiliza al instante. Si el robot también fuera muy inteligente, paciente, conocedor y comprensivo ... Realmente creo que un robot así, con una buena dosis de inteligencia emocional, podría ser enormemente agradable para interactuar con él. Mucho más gratificante que cualquier persona que conozco. Y creo que eso es cierto no solo para mí.

Entonces sí, creo que hay un gran valor en ajustar la personalidad de un robot utilizando las emociones y la conciencia emocional.


4

La emoción en una IA es útil, pero no necesaria según su objetivo (en la mayoría de los casos, no lo es).

En particular, el reconocimiento / análisis de emociones está muy avanzado, y se usa en una amplia gama de aplicaciones con mucho éxito, desde un maestro robot para niños autistas (ver robótica del desarrollo) hasta juegos de azar (póker), agentes personales y análisis de sentimientos políticos / mentiras.

Cognición emocional , la experiencia de las emociones de un robot, está mucho menos desarrollada, pero hay investigaciones muy interesantes (ver Affect Heuristic , Lovotics's Probabilistic Love Assembly , y otras ...). De hecho, no puedo ver por qué no pudimos modelar emociones como el amor, ya que son solo señales que ya se pueden cortar en los cerebros humanos (ver el documento de Brian D. Earp) . Es difícil, pero no imposible, y en realidad hay varios robots que reproducen cognición emocional parcial.

Soy de la opinión de que la afirmación "los robots pueden simplemente simular pero no sentir" es solo una cuestión de semántica , no de capacidad objetiva: por ejemplo, ¿nada un submarino como los peces? Sin embargo, los aviones vuelan, pero no como los pájaros. Al final, ¿el significado técnico realmente importa cuando al final tenemos el mismo comportamiento? ¿Podemos decir realmente que un robot como Chappie , si alguna vez se hace, no siente nada como un simple termostato?

Sin embargo, ¿cuál sería el uso de la cognición emocional para una IA? Esta pregunta todavía está en grandes debates, pero me atreveré a ofrecer mis propias ideas:

  1. Se sabe que las emociones en los humanos (¡y en los animales!) Afectan los recuerdos. Ahora son bien conocidos en neurociencia como modalidades adicionales, o metadatos si lo prefiere, de memorias a largo plazo: permiten modular cómo se almacena la memoria, cómo se asocia / relaciona con otras memorias y cómo se recuperará .

  2. Como tal, podemos plantear la hipótesis de que el papel principal de las emociones es agregar metainformación adicional a los recuerdos para ayudar en la inferencia / recuperación heurística. De hecho, nuestros recuerdos son enormes, hay mucha información que almacenamos a lo largo de nuestra vida, por lo que las emociones pueden usarse como "etiquetas" para ayudar a recuperar más rápidamente los recuerdos relevantes.

  3. Las "etiquetas" similares se pueden asociar más fácilmente entre sí (recuerdos de eventos de miedo juntos, recuerdos de eventos felices juntos, etc.). Como tal, pueden ayudar a la supervivencia al reaccionar y aplicar rápidamente estrategias conocidas (¡huir!) De estrategias aterradoras, o aprovechar al máximo las situaciones beneficiosas (los eventos felices, comer lo máximo que puedas, ¡ayudarán a sobrevivir más adelante!). Y, de hecho, los estudios de neurociencia descubrieron que existen vías específicas para los estímulos sensoriales que inducen miedo, de modo que llegan a los actuadores más rápido (lo hacen huir) que al pasar por el circuito somatosensorial habitual como cualquier otro estímulo. Este tipo de razonamiento asociativo también podría conducir a soluciones y conclusiones a las que no se podría llegar de otra manera.

  4. Al sentir empatía, esto podría facilitar la interacción entre robots y humanos (por ejemplo, aviones no tripulados que ayudan a las víctimas de eventos catastróficos).

  5. Un modelo virtual de una IA con emociones podría ser útil para la neurociencia y la investigación médica en trastornos emocionales como modelos computacionales para comprender y / o inferir los parámetros subyacentes (esto a menudo se hace, por ejemplo, con Alzheimer y otras enfermedades neurodegenerativas, pero no seguro si alguna vez se hizo para trastornos emocionales, ya que son bastante nuevos en el DSM).

Entonces, sí, la IA "fría" ya es útil, pero la IA emocional seguramente podría aplicarse a nuevas áreas que no podrían explorarse utilizando solo la IA fría. Seguramente también ayudará a comprender nuestro propio cerebro, ya que las emociones son una parte integral.


2

Creo que eso depende de la aplicación de la IA. Obviamente, si desarrollo una IA cuyo propósito es hacer tareas específicas bajo la supervisión de humanos, no hay necesidad de emociones. Pero si el propósito de la IA es realizar tareas de forma autónoma, entonces las emociones o la empatía pueden ser útiles. Por ejemplo, piense en una IA que esté funcionando en el dominio médico. Aquí puede ser ventajoso que una IA tenga algún tipo de empatía, solo para que los pacientes estén más cómodos. O como otro ejemplo, piense en un robot que sirve de niñera. Nuevamente, es obvio que las emociones y la empatía serían ventajosas y deseables. Incluso para un programa de ayuda de IA (hogar inteligente con palabras clave), las emociones y la empatía pueden ser deseables para que las personas se sientan más cómodas.

Por otro lado, si la IA solo está trabajando en una línea de montaje, obviamente no hay necesidad de emociones y empatía (por el contrario, en ese caso, puede no ser rentable).


2

IAs fuertes

Para una IA fuerte, la respuesta corta es pedir ayuda, cuando ni siquiera saben cuál podría ser la supuesta ayuda.

Depende de lo que haga la IA. Si se supone que resuelve una tarea fácil y única de manera perfecta y profesional, las emociones seguras no serían muy útiles. Pero si se supone que debe aprender cosas nuevas al azar, habría un punto en el que se encontraría con algo que no puede manejar.

En Lee Sedol vs AlphaGo match 4, algunos profesionales que han dicho que la computadora no tiene emociones anteriormente, comentaron que tal vez AlphaGo también tiene emociones, y más fuertes que los humanos. En este caso, sabemos que el comportamiento loco de AlphaGo no es causado por algunas cosas agregadas deliberadamente llamadas "emociones", sino por una falla en el algoritmo. Pero se comporta exactamente como si hubiera entrado en pánico.

Si esto sucede mucho para una IA. Puede haber ventajas si pudiera saber esto por sí mismo y pensarlo dos veces si sucede. Si AlphaGo pudiera detectar el problema y cambiar su estrategia, podría jugar mejor o peor. No es improbable que juegue peor si no hizo ningún cálculo para otros enfoques. En caso de que fuera peor, podríamos decir que sufre de "emociones", y esta podría ser la razón por la que algunas personas piensan que tener emociones podría ser un defecto de los seres humanos. Pero esa no sería la verdadera causa del problema. La verdadera causa es que simplemente no conoce ningún enfoque para garantizar ganar, y el cambio de estrategia es solo un intento de solucionar el problema. Los comentaristas piensan que hay mejores formas (que tampoco garantizan la victoria pero tuvieron más posibilidades), pero su algoritmo no es t capaz de descubrir en esta situación. Incluso para los humanos, es poco probable que la solución a cualquier cosa relacionada con la emoción elimine las emociones, pero se necesita algo de entrenamiento para asegurarse de comprender la situación lo suficiente como para actuar con calma.

Entonces alguien tiene que discutir si esto es un tipo de emoción o no. Usualmente no decimos que los insectos pequeños tienen emociones similares a las de los humanos, porque no los entendemos y no estamos dispuestos a ayudarlos. Pero es fácil saber que algunos de ellos podrían entrar en pánico en situaciones desesperadas, como lo hizo AlphaGo. Diría que estas reacciones se basan en la misma lógica, y son al menos la razón por la cual las emociones humanas podrían ser potencialmente útiles. Simplemente no se expresan de manera comprensible para los humanos, ya que no tenían la intención de pedir ayuda a un humano.

Si intentan comprender su propio comportamiento o llamar a alguien más para pedir ayuda, puede ser bueno ser exactamente humano. Algunas mascotas pueden sentir las emociones humanas y expresar emociones comprensibles por los humanos hasta cierto punto. El propósito es interactuar con los humanos. Evolucionaron para tener esta habilidad porque la necesitaban en algún momento. Es probable que una IA completamente fuerte lo necesite también. También tenga en cuenta que, lo contrario de tener emociones completas podría estar volviéndose loco.

Sin embargo, probablemente sea una forma rápida de perder la confianza si alguien solo implementa emociones que imitan a los humanos con poca comprensión de inmediato en las primeras generaciones.

IAs débiles

Pero, ¿hay algún propósito para que tengan emociones antes de que alguien quiera una IA fuerte? Yo diría que no, no hay ninguna razón inherente para que tengan emociones. Pero inevitablemente alguien querrá implementar emociones imitadas de todos modos. Si "nosotros" necesitamos que tengan emociones no tiene sentido.

El hecho es que incluso algunos programas sin inteligencia contenían algunos elementos "emocionales" en sus interfaces de usuario. Pueden parecer poco profesionales, pero no todas las tareas necesitan profesionalidad, por lo que podrían ser perfectamente aceptables. Son como las emociones en las músicas y las artes. Alguien también diseñará su IA débil de esta manera. Pero en realidad no son las emociones de los AI, sino sus creadores. Si te sientes mejor o peor debido a sus emociones, no tratarás a las IA individuales de manera tan diferente, sino a este modelo o marca en su conjunto.

Alternativamente, alguien podría plantar algunas personalidades como en un juego de rol allí. Una vez más, no hay una razón por la que deben tener eso, pero inevitablemente alguien lo hará, porque obviamente tenían algo de mercado cuando lo hace un juego de rol.

En cualquier caso, las emociones no se originan realmente en la IA en sí. Y sería fácil de implementar, porque un humano no esperará que sean exactamente como un humano, sino que trata de entender lo que pretendían significar. Podría ser mucho más fácil aceptar estas emociones al darse cuenta de esto.

Aspectos de las emociones.

Perdón por publicar una investigación original aquí. Hice una lista de emociones en 2012 y de la que veo 4 aspectos de las emociones. Si se implementan todas, diría que son exactamente las mismas emociones que las de los humanos. No parecen reales si solo se implementan algunos de ellos, pero eso no significa que estén completamente equivocados.

  • La razón o el problema lógico original que la IA no puede resolver. AlphaGo ya tenía la razón, pero nada más. Si tengo que hacer una definición precisa, diría que es el estado en el que múltiples heurísticas igualmente importantes no están de acuerdo entre sí.
    • El contexto, o qué parte del enfoque actual se considera que no funciona bien y probablemente debería reemplazarse. Esto distingue la tristeza, la preocupación y la pasión.
    • El estado actual, o si se siente líder, o si se supone que su creencia o el hecho se volverán malos primero (o fueron malos todo el tiempo) si las cosas salen mal. Esto distingue la tristeza, el amor y el orgullo.
  • El plan o solicitud. Supongo que algunas mascotas domesticadas ya tenían esto. Y supongo que estos tenían algunos patrones fijos que no es demasiado difícil de tener. Incluso las artes pueden contenerlos fácilmente. A diferencia de los motivos, es probable que estos no sean inherentes a ningún algoritmo, y varios de ellos pueden aparecer juntos.
    • Quien supuestamente tenía la responsabilidad si la emoción no cambia nada. Esto distingue curiosidad, rabia y tristeza.
    • ¿Cuál es el supuesto plan si la emoción no cambia nada? Esto distingue la decepción, la tristeza y la sorpresa.
  • La fuente. Sin contexto, incluso un humano no puede decir de manera confiable que alguien está llorando por sentirse conmovido o agradecido, o sonriendo por algún tipo de vergüenza. En la mayoría de los otros casos, ni siquiera hay palabras que los describan. No hace mucha diferencia si una IA no distingue o muestra esto especialmente. Es probable que aprendan esto automáticamente (e inexactamente como humanos) en el momento en que puedan aprender a comprender los idiomas humanos.
  • Las mediciones, como la urgencia o importancia del problema, o incluso la probabilidad de que las emociones sean ciertas. Yo diría que no se puede implementar en la IA. Los humanos no necesitan respetarlos, incluso si son exactamente como los humanos. Pero los humanos aprenderán a entender una IA si eso realmente importa, incluso si no son como los humanos en absoluto. De hecho, siento que algunas de las emociones extremadamente débiles (como pensar que algo es demasiado estúpido y aburrido que no sabes cómo comentar) existen casi exclusivamente en emoticones, donde alguien tiene la intención de mostrarte exactamente esta emoción, y apenas notable en la vida real o en cualquier escenario complejo. Supuse que esto también podría ser el caso al principio para las IA. En el peor de los casos, en primer lugar se conocen convencionalmente como "emociones", ya que los emoticones funcionan en estos casos, por lo que

Entonces, cuando las IA fuertes se vuelven posibles, ninguna de estas sería inalcanzable, aunque podría haber mucho trabajo para hacer las conexiones. Entonces diría que si hubiera la necesidad de IAs fuertes, absolutamente tendrían emociones.


2

Por emociones no quiere agregar todo tipo de emociones a una IA. Solo se refería a los que serán útiles para tomar decisiones vitales. Considere este incidente por un segundo:
suponga que un automóvil con autoconducción AI está conduciendo por la carretera. La persona sentada en el interior es el CEO de una empresa y está muy retrasado según lo previsto. Si no llega a tiempo, habrá una pérdida de millones de dólares. Se le ha dicho a la IA en el automóvil que conduzca lo más rápido posible y llegue al destino. Y ahora un conejo (o algún otro animal) se interpone en el camino. Ahora, si el automóvil pone frenos de emergencia, los pasajeros se lastimarán gravemente y además habrá una pérdida de millones ya que el CEO no podrá llegar a la reunión.

Ahora, ¿qué hará la IA?
Dado que para una IA, sus decisiones solo se basan en sufunción de utilidad. Golpear al conejo y seguir adelante lógicamente mostrará una mejor opción. Pero, si la IA tomara esa decisión.

Hay muchas preguntas como estas en las que una IA podría quedar atrapada en una situación en la que las decisiones basadas en la moral jugarán un papel vital.
El escenario anterior es solo para un punto de vista de ejemplo.


1

Teoria de la mente

Si queremos que una IA general fuerte funcione bien en un entorno que consiste en humanos, entonces sería muy útil que tuviera una buena teoría de la mente. que coincida con el comportamiento real de los humanos. Esa teoría de la mente debe incluir emociones humanas, o no coincidirá con la realidad de este entorno.

Para nosotros, un atajo de uso frecuente es pensar explícitamente "¿qué habría hecho en esta situación?" "¿Qué evento podría haber motivado a para hacer lo que acabas de hacer?" "¿Cómo me sentiría si me hubiera pasado esto ?". Queremos que una IA sea capaz de tal razonamiento, es práctica y útil, permite mejores predicciones de acciones futuras y más efectivas.

Incluso aunque sería mejor para él que la IA no ser en realidad impulsado por las emociones exactas (tal vez algo en esa dirección sería útil, pero muy probablemente no es exactamente lo mismo), lo único que cambia que en lugar de pensar "lo que me iba a sentir" debería ser capaz de hipotetizar lo que sentiría un humano genérico. Eso requiere implementar un subsistema que sea capaz de modelar con precisión las emociones humanas.


1

¡Cuidado! En realidad, hay dos partes en su pregunta. No mezcle significados en sus preguntas, de lo contrario no sabrá realmente qué parte está respondiendo.

  1. ¿Deberíamos dejar que AGI experimente emoción por "la experiencia cualitativa"? (En el sentido de que sientes que "tu corazón está en llamas" cuando te enamoras)

No parece haber un propósito claro de por qué queremos eso. Hipotéticamente podríamos tener algo que es funcionalmente indistinguible de las emociones, pero que no tiene ninguna experiencia cualitativa con respecto al AGI. Pero no estamos en una posición científica en la que podamos comenzar a responder preguntas sobre los orígenes de la experiencia cualitativa, por lo que no me molestaré en profundizar en esta pregunta.

  1. ¿Deberíamos dejar que AGI tenga emociones por su equivalencia funcional de un observador externo?

En mi humilde opinión sí. Aunque uno podría imaginar una IA rudo sin emociones haciendo lo que quisiera, deseamos que la IA pueda integrarse con los valores y las emociones humanas, que es el problema de la alineación. Por lo tanto, parecería natural suponer que cualquier AGI bien alineado tendrá algo similar a las emociones si se ha integrado bien con los humanos.

PERO, sin una teoría clara de la mente, ni siquiera tiene sentido preguntar: "¿debería nuestra AGI tener emociones?" Quizás haya algo crítico en nuestras emociones que nos haga agentes cognitivos productivos que cualquier AGI requeriría también.

De hecho, las emociones son a menudo un aspecto ignorado de la cognición. La gente de alguna manera piensa que los personajes sin emociones como Spock son el pináculo de la inteligencia humana. Pero las emociones son en realidad un aspecto crucial en la toma de decisiones, vea este artículo para ver un ejemplo de los problemas con "inteligencia sin emociones".

La pregunta de seguimiento sería "¿qué tipo de emociones desarrollaría el AGI?", Pero nuevamente no estamos en condiciones de responder eso (todavía).


0

¿Para qué serviría el desarrollo de IA que experimenten emociones similares a las de los humanos?

Cualquier problema complejo que involucre emociones humanas, donde la solución al problema requiere la capacidad de simpatizar con los estados emocionales de los seres humanos, será atendido de manera más eficiente por un agente que pueda simpatizar con las emociones humanas.

Política. Gobierno. Política y planificación. A menos que la cosa tenga un conocimiento íntimo de la experiencia humana, no podrá proporcionar respuestas definitivas a todos los problemas que encontramos en nuestra experiencia humana.


La observación política y gubernamental que hizo fue un excelente ejemplo. Sin embargo, mi perspectiva es que la IA solo necesita ser capaz de comprender las emociones y no necesariamente experimentarlas.
Seth Simba

0

Las emociones humanas están intrincadamente conectadas con los valores humanos y con nuestra capacidad de cooperar y formar sociedades.

Solo para dar un ejemplo fácil: conoces a un extraño que necesita ayuda, sientes empatía . Esto te obliga a ayudarlo a un costo para ti. Supongamos que la próxima vez que lo conozca, necesita algo. Supongamos también que no te ayuda, sentirás ira . Esta emoción te obliga a castigarlo, a un costo adicional para ti. Él, por otro lado, si no te ayuda, siente vergüenza . Esto lo obliga a ayudarlo realmente, evitando su enojo y haciendo que su inversión inicial valga la pena. Ambos se benefician.

Entonces estas tres emociones mantienen un círculo de ayuda recíproca. Empatía para comenzar, ira para castigar a los desertores y vergüenza para evitar la ira. Esto también conduce a un concepto de justicia.

Dado que la alineación de valores es uno de los grandes problemas en AGI, las emociones humanas me parecen un buen enfoque hacia las IA que realmente comparten nuestros valores y se integran perfectamente en nuestra sociedad.


Bien, pero si vas a ser padre, verás que las emociones son solo atajos para una explicación lógica de por qué son útiles o no. Las reglas pueden derivarse de las emociones y nuestra biología. Y esas reglas se mantienen en forma comprimida y no obvia como las emociones y la biología. Para nosotros es necesario, pero no para ai, aunque para nosotros podría funcionar como optimización para AI si el costo de dicha implementación en forma digital será menor que la implementación basada en reglas. El problema con las reglas es solo uno, nosotros mismos no las conocemos completamente, pero la tarea de inteligencia artificial es más estrecha que la nuestra, puede que no necesite muchas reglas
MolbOrg
Al usar nuestro sitio, usted reconoce que ha leído y comprende nuestra Política de Cookies y Política de Privacidad.
Licensed under cc by-sa 3.0 with attribution required.