Además de lo que ya se ha dicho sobre la IA, tengo que agregar lo siguiente. "AI" ha tenido una gran historia que se remonta al Perceptron original . Marvin Minsky criticó al Perceptron en 1969 por no poder resolver el problema XOR y cualquier cosa que no fuera linealmente separable, por lo que "Inteligencia Artificial" se convirtió en una mala palabra por un tiempo, solo para recuperar intereses en la década de 1980. Durante ese tiempo, se revivieron las redes neuronales, se desarrolló la propagación hacia atrás utilizada para entrenarlas y, a medida que la tecnología informática continuó su crecimiento exponencial, también lo hizo la "IA" y lo que se hizo posible.
Hoy en día, hay muchas cosas que damos por sentado que se habrían considerado "AI" hace 10 o 15 años, como el reconocimiento de voz, por ejemplo. Comencé con el reconocimiento de voz "AI" a finales de los años 70, donde tenía que entrenar a los modelos de voz para comprender un solo hablante humano. Hoy en día, el reconocimiento de voz es una ocurrencia tardía con sus aplicaciones de Google, por ejemplo, y no se necesita capacitación a priori. Sin embargo, esta tecnología ya no se considera, al menos en el público en general, "IA".
Y entonces, ¿cuáles serían los "requisitos mínimos"? Eso dependerá de a quién le pregunte. Y a que hora. Parece que ese término solo se aplica a la tecnología "en la vanguardia". Una vez que se desarrolla y se convierte en un lugar común, ya no se le conoce como IA. Esto es cierto incluso para las redes neuronales, que son dominantes en la ciencia de datos en este momento, pero se conocen como "aprendizaje automático".
También echa un vistazo a la animada discusión sobre Quora .