Suponiendo que los humanos finalmente hayan desarrollado la primera IA humanoide basada en el cerebro humano, ¿sentiría emociones? Si no es así, ¿seguiría teniendo ética y / o moral?
Suponiendo que los humanos finalmente hayan desarrollado la primera IA humanoide basada en el cerebro humano, ¿sentiría emociones? Si no es así, ¿seguiría teniendo ética y / o moral?
Respuestas:
He considerado muchas de las respuestas aquí, y sugeriría que la mayoría de las personas aquí han perdido el punto al responder la pregunta sobre las emociones.
El problema es que los científicos siguen buscando una solución única en cuanto a qué son las emociones. Esto es similar a buscar una sola forma que se ajuste a todas las ranuras de diferentes formas.
Además, lo que se ignora es que los animales son tan capaces de emociones y estados emocionales como nosotros:
Cuando buscas en Youtube insectos que luchan entre ellos, compiten o cortejan, ¡debe quedar claro que las criaturas simples también los experimentan!
Cuando desafío a las personas sobre las emociones, les sugiero que vayan a Corintios 13, que describe los atributos del amor. Si considera todos esos atributos, uno debe notar que no se requiere un "sentimiento" real para cumplir con ninguno de ellos.
Por lo tanto, la sugerencia de que un psicópata carece de emociones y, por lo tanto, comete crímenes u otras actividades fuera de los límites "normales" está lejos de ser cierta, especialmente cuando uno considera los diversos registros que nos dejaron de los casos judiciales y tal vez la evaluación psicológica, que nos muestran que actúan por emociones "fuertes".
Se debe considerar que el comportamiento de un psicópata está motivado por emociones negativas y estados emocionales con una clara falta o falta de moralidad y una falta de conciencia. Los psicópatas "disfrutan" de lo que hacen.
Estoy sugiriendo a todos que estamos cegados por nuestro razonamiento y por el razonamiento de los demás.
Aunque estoy de acuerdo con la siguiente cita mencionada anteriormente:
Dave H. escribió:
Desde un punto de vista computacional, las emociones representan un estado global que influye en muchos otros procesos. Las hormonas, etc. son básicamente solo implementación. Una computadora inteligente o inteligente ciertamente podría experimentar emociones si estuviera estructurada de tal manera que los estados globales afecten su pensamiento.
Sin embargo, su razonamiento debajo de eso (esa cita) también tiene serias fallas.
Las emociones son activas y pasivas: son activadas por los pensamientos y activan nuestros pensamientos; Las emociones son un estado mental y una cualidad conductual; Las emociones reaccionan a los estímulos o miden nuestras respuestas a ellos; Las emociones son reguladores y moderadores independientes; Sin embargo, provocan nuestro enfoque y atención a criterios específicos; y nos ayudan cuando la intuición y la emoción están de acuerdo o nos impiden cuando la conciencia choca.
Una computadora tiene el mismo potencial que nosotros para sentir emociones, pero la habilidad de implementar emociones es mucho más sofisticada que la única solución para todas las respuestas que las personas buscan aquí.
Además, si alguien argumenta que las emociones son simplemente "estados" en los que se puede diseñar una respuesta o respuestas a su alrededor, realmente no comprende la complejidad de las emociones; las emociones y pensamientos de "libertad" se tienen independientemente el uno del otro; o lo que constituye el pensamiento verdadero!
Los programadores y los científicos son conocidos por "simular" las experiencias reales de emociones o inteligencia, sin comprender las complejidades íntimas; Pensando que al encontrar la simulación perfecta han "descubierto" la experiencia real.
La Psi-teoría parece dar una comprensión adecuada del asunto: https://en.wikipedia.org/wiki/Psi-theory
Entonces diría que la simulación de estados emocionales "es" equivalente a experimentar emociones, pero esos estados emocionales son mucho más complejos de lo que la mayoría se da cuenta.
Hay mucha discusión en filosofía sobre el lenguaje interno y la capacidad de percibir el dolor (ver el artículo Dolor en filosofía ). Su pregunta está en el área de la filosofía y no de la ciencia. Si define la emoción como un estado, puede construir autómatas simples con dos estados (emoción versus no emoción). Puede ser un estado muy complicado con grados de verdad (porcentaje de emoción).
Básicamente, para imitar la emoción humana, necesitas hacer un organismo vivo similar a un humano, y aún con la comprensión y la tecnología de hoy no podrás reconocer la emoción en él. Lo único que puedes hacer es confiar cuando dice "Estoy triste". Ahora estamos en el área de la prueba de Turing, que nuevamente es filosofía y no ciencia.
Ciertamente es posible que la IA sienta teóricamente emoción.
Según el libro de Murray Shanahan The Singularity Tecnológico , existen dos formas principales de IA:
1) IA basada en humanos: lograda a través de procesos como la emulación del cerebro completo , el funcionamiento de la IA basada en humanos probablemente no se pueda distinguir del cerebro humano y, como consecuencia, la IA basada en humanos probablemente experimente emoción de la misma manera que humanos
-
2) IA desde cero: con esta forma de IA, basada en algoritmos de aprendizaje automático y procesos complejos para impulsar objetivos, entramos en un territorio desconocido como el desarrollo de esta forma de IA es inherentemente impredecible y diferente a todo lo que observamos en el espacio de muestra biológica de inteligencia a la que tenemos acceso.
Con esta forma de IA, no se sabe si podría experimentar emoción y cómo.
Como la pregunta hace referencia a la primera, es muy probable que la IA basada en humanos experimente emociones y otras características similares a las humanas.
Asumiendo que una IA fue construida con una cáscara mecánica, reflejando exactamente el cerebro humano; Completo con señales químicas y todo. Una IA debería ser teóricamente capaz de sentir / procesar emociones.
AI should be able to feel emotions
teniendo en cuenta y procesando cada pieza de datos relacionados con ella.
Las emociones son un factor en los humanos que tienen ética / moral solo porque son un factor en todo el aprendizaje humano y la toma de decisiones.
A menos que esté duplicando exactamente a un ser humano, no hay razón para pensar que una IA aprenderá de la misma manera que un humano aprende, o tomará decisiones de la misma manera que un humano toma decisiones.
Por lo tanto, si "siente emoción" como lo hacemos nosotros, o si simplemente responde a los resultados "el costo es mayor = no vayas allí", se podría lograr el resultado del COMPORTAMIENTO ético. Una IA podría comportarse perfectamente éticamente sin necesidad de sentir empatía, vergüenza, etc.
También podría argumentar que una gran cantidad de comportamiento no ético en los seres humanos también es impulsado por las emociones, y que una IA no emocional pero ética puede hacer un mejor trabajo en general que un ser humano.
Esta pregunta es más una cuestión de filosofía de la mente que de IA, aquí hay algunas respuestas detalladas a su pregunta de la filosofía SE: ¿Simular emociones es lo mismo que experimentar emociones? y ¿Cuál es el problema con el fisicalismo? .
Para el registro, la respuesta aceptada (por Siri) a la pregunta no es del todo correcta (la posición en esa respuesta corresponde aproximadamente a la opinión de John Searle sobre la pregunta, y la suya es una opinión minoritaria): los dualistas argumentarían que incluso con un perfecto replicación hasta el nivel químico de las interacciones cerebrales, una IA todavía no experimentaría emociones, ya que carece de la sustancia / propiedades puramente mentales que hacen que una mente y no una máquina.
En el lado completamente opuesto del espectro, los funcionalistas responderían que una replicación tan perfecta es exagerada: incluso una computadora digital adecuadamente programada puede experimentar emoción, particularmente si uno la equipa con estados de orden superior y autorreferenciales.
Bueno, depende del nivel de la IA.
Puede crear una IA súper autónoma con capacidades de aprendizaje profundo, etc., pero solo en el tipo robótico.
Si creas una IA como EVA en la película Ex-Machina, forma humanoide, transmisiones neuronales profundas y con disonancia cognitiva, entonces podría sentirse.
El problema de la "IA" no son las transmisiones químicas y neurales, es la conciencia.
Si y no. Si simula completamente un cerebro humano y todas sus funciones, probablemente podría sentir emociones muy similares a las nuestras.
Pero no tenemos suficientes capacidades y conocimientos para hacer eso, y tal vez podríamos encontrar un "atajo", un proceso que sea inteligente sin simular un cerebro completo. En este caso, las emociones probablemente estarían representadas por valores de datos que dicen "esto es bueno (¡haz que vuelva a suceder!)" O "esto es malo (¡evítalo!)". Este es solo un ejemplo muy básico (obviamente hay muchas más emociones), pero tendría una función similar y la IA tendría soluciones similares a las que tenemos. Pero no sabemos, y probablemente nadie lo sabrá nunca, si este valor de datos 'malo' "se siente" de la misma manera para la IA que la emoción correspondiente nos sentiría.
Primero necesitas expresar emociones, puedes hacerlo sin la ayuda de la IA, y luego necesitas a alguien para percibir esa expresión y empatizar con ella.
Si no hay nadie allí para verlo, o si soy psicópata, probablemente diría que no tiene emociones. y para eso, es irrelevante / subjetivo.
Si puedes empatizar con personajes de películas que "actúan" emociones, entonces entiendes mi punto.
En mi humilde opinión
Definitivamente si! Todo lo que siente la persona (física o mentalmente) puede descubrirse mediante el procesamiento de señales químicas en su cuerpo o cerebro. Si entendemos la política y la naturaleza de tales señales, podemos programarlo.
Hay muchas obras de pseudo-psicología y psicología en esta esfera, si le interesa, puedo sugerirle:
1) Psicología cognitiva (Robert L. Solso)
describe el aparato cognitivo de la mente humana en palabras simples;
2) La psicología de las emociones (Carroll E. Izard)
describe minuciosamente todo tipo de emoción por su mirada en la cara humana (tanto de niño como de adulto), mecanismo cognitivo de bajo nivel, emociones relacionadas o adyacentes;
3) Libros de Paul Ekman ("Contando mentiras", "Emociones reveladas", "Desenmascarando la cara")
Detección práctica de emociones humanas mediante lenguaje de microexpresiones en cara y cuerpo.