Todo lo relacionado con el aprendizaje profundo (DL) y las redes profundas (er) parece "exitoso", al menos progresa muy rápido y cultiva la creencia de que AGI está al alcance. Esta es la imaginación popular. DL es una herramienta tremenda para abordar tantos problemas, incluida la creación de AGI. Sin embargo, no es suficiente. Una herramienta es un ingrediente necesario, pero a menudo insuficiente.
Las principales figuras en el dominio están buscando en otro lugar para avanzar. Este informe / reclamo reúne enlaces a declaraciones de Yoshua Bengio , Yann LeCun y Geoff Hinton . El informe también explica:
Las principales debilidades de DL (como las veo) son: dependencia de las neuronas modelo más simples posibles ("caricaturescas" como las llama LeCun); uso de ideas de la Mecánica Estadística y Estadística del siglo XIX, que son la base de las funciones energéticas y los métodos de probabilidad logarítmica; y la combinación de estas en técnicas como backprop y descenso de gradiente estocástico, lo que lleva a un régimen de aplicación muy limitado (fuera de línea, en su mayoría, aprendizaje supervisado), que requiere profesionales altamente talentosos (también conocido como "Descenso graduado estocástico"), grandes cantidades de costosas etiquetado datos de entrenamiento y potencia computacional. Si bien es ideal para grandes empresas que pueden atraer o comprar el talento e implementar recursos ilimitados para recopilar datos y analizarlos, DL no es accesible ni útil para la mayoría de nosotros.
Aunque interesante y relevante, este tipo de explicación realmente no aborda la esencia del problema: ¿Qué falta?
La pregunta parece amplia, pero puede ser por falta de una respuesta simple. ¿Hay alguna manera de determinar qué falta DL para un AGI?