¿Hay modelos computacionales de neuronas espejo?


17

De Wikipedia:

Una neurona espejo es una neurona que se dispara tanto cuando un animal actúa como cuando el animal observa la misma acción realizada por otro.

Las neuronas espejo están relacionadas con el aprendizaje de imitación, una característica muy útil que falta en las implementaciones actuales de IA del mundo real. En lugar de aprender de ejemplos de entrada-salida (aprendizaje supervisado) o de recompensas (aprendizaje de refuerzo), un agente con neuronas espejo podría aprender simplemente observando otros agentes, traduciendo sus movimientos a su propio sistema de coordenadas. ¿Qué tenemos sobre este tema con respecto a los modelos computacionales?

Respuestas:


4

Este artículo da una descripción de las neuronas espejo en términos de aprendizaje hebbiano, un mecanismo que se ha utilizado ampliamente en la IA. No sé si la formulación dada en el artículo alguna vez se ha implementado realmente de manera computacional.


0

Ya sea "yo tomo la pelota" o "él toma la pelota", todas las instancias almacenadas de 'tomar' y 'pelota' se activarán débilmente y 'tomar [la] pelota' se activará fuertemente. ¿No califica esto como 'reflejo'? Si también sabe que "tengo un brazo" y "él tiene un brazo", etc., entonces cuando "toma algunos bloques", no es demasiado difícil pensar que "podría tomar algunos bloques".


0

De hecho, tenemos muchas cosas en esa línea, la captura de movimiento para películas en 3-D viene a mi mente casi de inmediato. El problema si lo pienso es menos una situación en la observación de otro actor, las computadoras son relativamente buenas para hacerlo ya con la cantidad de software de reconocimiento de imágenes que tenemos, más bien es un problema de comprensión si una acción arrojó un buen resultado como resultado. net, que es algo que las computadoras no pueden hacer, ya que no es un problema de red de un solo nodo. Por ejemplo, ya hemos programado una computadora para comprender el lenguaje humano (podría decirse que Watson), pero incluso Watson no entendió el concepto de que decir "f ***" es malo. (Mira eso, es una historia paralela divertida).

Pero el punto es que los algoritmos de aprendizaje no son verdaderos aprendiendo en un sentido ya que una computadora actualmente no tiene la sensación de "un buen resultado", por lo tanto, en esta etapa, el aprendizaje de observación está muy limitado en un sentido a "mono ver, mono hacer".

Quizás lo más cercano que he leído sobre esto fue la búsqueda de incendios y los bots de rescate que estaban en una red y se transmitían entre sí cuando uno de ellos había sido destruido, ya que los bots sabían que el área era algo que tenían que evitar.

De lo contrario, creo que este es el problema con el aprendizaje observacional. Una persona puede observar que golpear a alguien generalmente lo devolverá, una computadora observará y repita la acción, buena o mala.

Al usar nuestro sitio, usted reconoce que ha leído y comprende nuestra Política de Cookies y Política de Privacidad.
Licensed under cc by-sa 3.0 with attribution required.