En inteligencia artificial (a veces llamada inteligencia de máquina o inteligencia computacional ), hay varios problemas que se basan en temas matemáticos, especialmente optimización, estadística, teoría de probabilidad, cálculo y álgebra lineal.
Marcus Hutter ha trabajado en una teoría matemática para la inteligencia general artificial , llamada AIXI , que se basa en varios conceptos matemáticos y de ciencias de la computación, como el aprendizaje por refuerzo, la teoría de la probabilidad (por ejemplo, el teorema de Bayes y temas relacionados) , la teoría de la medida , la teoría de la información algorítmica (por ejemplo, Complejidad de Kolmogorov), optimización, inducción de Solomonoff , búsqueda universal de Levin y teoría de la compulsión (por ejemplo, máquinas Turing universales). Su libro Inteligencia artificial universal: decisiones secuenciales basadas en probabilidad algorítmica, que es un libro altamente técnico y matemático, describe su teoría de los agentes de aprendizaje de refuerzo Bayesianos no Markov óptimos.
También existe el campo de investigación llamado teoría del aprendizaje computacional , que se dedica al estudio del diseño y análisis de algoritmos de aprendizaje automático. Más precisamente, el campo se centra en el estudio riguroso y el análisis matemático de algoritmos de aprendizaje automático utilizando técnicas de campos como la teoría de la probabilidad, estadística, optimización, teoría de la información y geometría. Varias personas han trabajado en la teoría del aprendizaje computacional, incluidos Michael Kearns y Vladimir Vapnik . También hay un campo relacionado llamado teoría del aprendizaje estadístico .
También hay mucho esfuerzo de investigación dedicado a aproximaciones (heurísticas) de optimización combinatoria y problemas de NP completo , como la optimización de colonias de hormigas .
También hay algo de trabajo sobre la integridad de la IA , pero esto no ha recibido mucha atención (en comparación con las otras áreas de investigación mencionadas anteriormente).