La afirmación común de que las redes neuronales artificiales están inspiradas en la estructura neuronal de los cerebros es solo parcialmente cierto.
Es cierto que Norbert Wiener, Claude Shannon, John von Neuman y otros comenzaron el camino hacia la IA práctica desarrollando lo que luego llamaron el cerebro electrónico. También es cierto
- Las redes artificiales tienen funciones llamadas activaciones,
- Están conectados en relaciones de muchos a muchos, como las neuronas biológicas, y
- Están diseñados para aprender un comportamiento óptimo,
pero ese es el alcance de la similitud. Las células en redes artificiales como MLP (perceptrones multicapa) o RNN (redes neuronales recurrentes) no son como las células en las redes cerebrales.
El perceptrón, la primera puñalada de software en conjuntos de cosas que se activan, no era un conjunto de neuronas. Fue la aplicación de retroalimentación básica que involucra gradientes, que había sido de uso común en ingeniería desde que Gauss modeló matemáticamente el gobernador centrífugo de James Watt. La aproximación sucesiva, un principio que había estado en uso durante siglos, se empleó para actualizar gradualmente una matriz de atenuación. La matriz se multiplicó por el vector que alimentaba una matriz de funciones de activación idénticas para producir la salida. Eso es.
La proyección en una segunda dimensión a una topología multicapa fue posible al darse cuenta de que el jacobiano podría usarse para producir una señal correctiva que, cuando se distribuye como retroalimentación negativa a las capas de manera apropiada, podría sintonizar la matriz de atenuación de una secuencia de Los perceptrones y la red en su conjunto convergerían en un comportamiento satisfactorio. En la secuencia de perceptrones, cada elemento se llama capa. El mecanismo de retroalimentación ahora se llama propagación de regreso.
La matemática utilizada para corregir la red se llama descenso en gradiente porque es como un ciego deshidratado que usa el gradiente del terreno para encontrar agua, y los problemas de hacerlo también son similares. Puede encontrar un mínimo local (punto bajo) antes de encontrar agua dulce y converger en la muerte en lugar de la hidratación.
Las topologías más nuevas son las adiciones del trabajo de convolución ya existente utilizado en la restauración de imágenes digitales, clasificación de correo y aplicaciones gráficas para crear la familia de topologías CNN y el uso ingenioso de lo que es un equilibrio químico de la química del primer año para combinar la creación de criterios de optimización. La familia de topologías GAN.
Profundo es simplemente un sinónimo de numerosos en la mayoría de los contextos de IA. A veces infiere complejidad en la topología de nivel superior (por encima de los productos de matriz de vectores, las activaciones y las circunvoluciones).
Aquellos que son conscientes de cuán diferentes son estas redes profundas de lo que los científicos neuronales han descubierto hace décadas en el tejido cerebral de los mamíferos, están llevando a cabo investigaciones activas. Y hoy se descubren más diferenciadores a medida que se investigan los circuitos de aprendizaje y la neuroquímica en el cerebro desde la perspectiva genómica.
- Plasticidad neural ... cambio en la topología del circuito debido al crecimiento de dendritas y axiomas, muerte, redirección y otros cambios.
- Complejidad topológica ... un gran número de axiomas se entrecruzan sin interactuar y están deliberadamente protegidos de la conversación cruzada (independiente) muy probablemente porque sería una desventaja dejarlos conectar [nota 1]
- Señalización química ... los cerebros de mamíferos tienen docenas de neurotransmisores y compuestos de neuro-regulación que tienen efectos regionales en los circuitos [nota 2]
- Organelos ... las células vivas tienen muchas subestructuras y se sabe que varios tipos tienen relaciones complejas con la transmisión de señales en las neuronas
- Forma de activación completamente diferente ... las activaciones en redes neuronales artificiales comunes son simplemente funciones con escalares ordinales tanto para el rango como para el dominio ... las neuronas de mamíferos operan en función de la amplitud y la proximidad temporal relativa de las señales entrantes [nota 3]
[1] Irónicamente, la topología es un subconjunto de la arquitectura (en los campos de diseño de edificios, aprovisionamiento de redes, análisis WWW y redes semánticas), pero al mismo tiempo la topología es, mucho más que la arquitectura, el centro radical de ambas IA. Matemáticas y actualización efectiva en sistemas de control
[2] El papel de la química puede ser esencial para aprender comportamientos sociales y reproductivos que se interrelacionan con la propagación de información del ADN, vinculando de manera compleja el aprendizaje a nivel de un ecosistema y el cerebro. Además, el aprendizaje a largo y corto plazo divide el aprendizaje del cerebro en dos capacidades distintas también.
[3] El impacto del tiempo de las señales entrantes en la activación biológica de las neuronas se entiende hasta cierto punto, pero puede afectar mucho más que la producción de neuronas. También puede afectar la placticidad y la química, y los orgánulos pueden desempeñar un papel en eso.
Resumen
Lo que hacen las bibliotecas de aprendizaje automático es simular tanto el cerebro humano como las muñecas Barbie y Ken simulan una pareja real.
No obstante, están surgiendo cosas notables en el campo del aprendizaje profundo, y no me sorprendería si los vehículos autónomos se vuelven completamente autónomos en nuestras vidas. Tampoco recomendaría a ningún estudiante convertirse en desarrollador. Las computadoras probablemente codificarán mucho mejor que los humanos y órdenes de magnitud más rápido, y posiblemente pronto. Algunas tareas no son del tipo que la biología ha evolucionado para hacer y las computadoras pueden exceder las capacidades humanas después de solo unas décadas de investigación, eventualmente superando el rendimiento humano en varios órdenes de magnitud.