Puedo decir que entre los investigadores de IA con los que interactúo, es mucho más común verlo como una especulación salvaje que como un hecho establecido.
Esto se ve confirmado por encuestas de investigadores de IA , con un 80% que piensa que surgirán formas fuertes de IA en "más de 50 años" o "nunca", y solo un pequeño porcentaje piensa que tales formas de IA están "cerca".
Los desarrolladores de software no son lo mismo que los investigadores de IA, y he descubierto que el mito de la singularidad está mucho más extendido entre los desarrolladores. Suena bien: las computadoras se vuelven cada vez más rápidas, en algún momento serán más rápidas que los cerebros, en ese punto simplemente simulamos cerebros. Poco después, simulamos algo mejor que el cerebro.
Sospecho que las razones por las que los investigadores de IA son menos optimistas se basan en el hecho de que todavía no tenemos una buena comprensión de la inteligencia humana, o incluso una comprensión suficiente del cerebro para simularla. Por ejemplo, en las últimas dos semanas hemos descubierto tipos de células cerebrales previamente desconocidos . Esto da la impresión (correcta) de que incluso si tuviéramos una computadora lo suficientemente rápida, no estamos en absoluto cerca de poder simular con precisión un cerebro humano. Realmente no sabemos qué es un cerebro humano.
Incluso si supiéramos eso, las simulaciones son necesariamente con pérdida. Es posible que no tengamos buenas técnicas de simulación. Incluso si tuviéramos buenas técnicas, podemos simular el cerebro y descubrir que nuestra simulación no se comporta como se esperaba por razones que no entendemos. Esto es muy probable al simular nuevos sistemas. En cierto sentido, los defensores de la Singularidad se parecen a las personas que predicen que el control del clima estaba cerca en la década de 1940. Después de todo, podríamos simular patrones climáticos simples ya entonces, y generar pronósticos que funcionaron. ¿Cuánto más complejo podría ser realmente generar pronósticos perfectos?