Según Wikipedia (se omiten las citas):
En la historia de la inteligencia artificial, un invierno con IA es un período de financiación reducida e interés en la investigación de inteligencia artificial. El término fue acuñado por analogía con la idea de un invierno nuclear. El campo ha experimentado varios ciclos exagerados, seguidos de desilusión y crítica, seguidos de recortes de fondos, seguidos de un interés renovado años o décadas más tarde.
La página de Wikipedia discute un poco sobre las causas de los inviernos de IA. Sin embargo, tengo curiosidad por saber si es posible evitar que ocurra un AI de invierno. Realmente no me gusta la mala asignación de recursos causados por la sobreinversión seguida de la subinversión.
Una de las causas del invierno con IA que aparece en esa página de Wikipedia es "bombo":
Los inviernos de IA pueden entenderse en parte como una secuencia de expectativas sobreinfladas y un colapso posterior visto en los mercados bursátiles y ejemplificado por la manía ferroviaria y la burbuja de las puntocom. En un patrón común en el desarrollo de nuevas tecnologías (conocido como ciclo de bombo), un evento, típicamente un avance tecnológico, crea publicidad que se alimenta de sí misma para crear un "pico de expectativas infladas" seguido de un "canal de desilusión". Dado que el progreso científico y tecnológico no puede seguir el ritmo del aumento de las expectativas entre los inversores y otras partes interesadas, impulsado por la publicidad, debe producirse un colapso. La tecnología de IA parece no ser una excepción a esta regla.
Y parece que este párrafo indica que cualquier tecnología nueva se atascará en este patrón de "expectativas infladas" seguido de desilusión.
Entonces, ¿son inevitables los inviernos de IA? ¿Es inevitable que las tecnologías de IA siempre se sobrevaloren en el futuro y que siempre se produzcan "correcciones" severas? ¿O puede haber una manera de gestionar este ciclo exagerado para detener aumentos / disminuciones graves en la financiación?