Escuché una charla por panel compuesta por dos científicos chinos influyentes: Wang Gang y Yu Kai y otros.
Cuando se le preguntó sobre el mayor cuello de botella del desarrollo de la inteligencia artificial en el futuro cercano (3 a 5 años), Yu Kai, que tiene experiencia en la industria del hardware, dijo que el hardware sería el problema esencial y que deberíamos pagar la mayor parte nuestra atención a eso. Nos dio dos ejemplos:
- En el desarrollo temprano de la computadora, comparamos nuestras máquinas por sus chips;
- La inteligencia artificial, que es muy popular en estos años, sería casi imposible si no estuviera potenciada por la GPU de Nvidia.
Los algoritmos fundamentales ya existían en las décadas de 1980 y 1990, pero la inteligencia artificial pasó por 3 inviernos de IA y no fue empírica hasta que podamos entrenar modelos con mega servidores con GPU.
Luego, el Dr. Wang comentó sus opiniones de que también deberíamos desarrollar sistemas de software porque no podemos construir un automóvil automático, incluso si hemos combinado todas las GPU y la computación en el mundo juntas.
Luego, como de costumbre, mi mente se desvió y comencé a pensar que si aquellos que pueden operar supercomputadoras en los años ochenta y noventa utilizaron los algoritmos de red neuronal existentes en ese momento y los entrenaron con toneladas de datos científicos. Algunas personas en ese momento obviamente pueden intentar construir los sistemas de IA que estamos construyendo ahora. Pero, ¿por qué la IA se convirtió en un tema candente y empírico hasta décadas después? ¿Es solo una cuestión de hardware, software y datos?