¿Qué tipo de problemas matemáticos hay en la IA en los que la gente está trabajando?


11

Recientemente obtuve un puesto de postdoctorado de 18 meses en un departamento de matemáticas. Es una posición con un deber de enseñanza relativamente ligero y mucha libertad sobre qué tipo de investigación quiero hacer.

Anteriormente estaba investigando sobre probabilidad y combinatoria. Pero estoy pensando en hacer un poco más de trabajo orientado a las aplicaciones, por ejemplo, AI. (También existe la consideración de que existe una buena posibilidad de que no obtenga un puesto de titularidad al final de mi puesto actual. Aprender un poco de IA podría ser útil para otras posibilidades de carrera).

¿Qué tipo de problemas matemáticos hay en la IA en los que la gente está trabajando? Por lo que escuché, hay personas estudiando

¿Algún otro ejemplo?


3
Mejoramiento. Probablemente es el campo más impactante para AI ML. Faltan pruebas de convergencia, como en el aprendizaje por refuerzo.
drerD

Respuestas:


10

En inteligencia artificial (a veces llamada inteligencia de máquina o inteligencia computacional ), hay varios problemas que se basan en temas matemáticos, especialmente optimización, estadística, teoría de probabilidad, cálculo y álgebra lineal.

Marcus Hutter ha trabajado en una teoría matemática para la inteligencia general artificial , llamada AIXI , que se basa en varios conceptos matemáticos y de ciencias de la computación, como el aprendizaje por refuerzo, la teoría de la probabilidad (por ejemplo, el teorema de Bayes y temas relacionados) , la teoría de la medida , la teoría de la información algorítmica (por ejemplo, Complejidad de Kolmogorov), optimización, inducción de Solomonoff , búsqueda universal de Levin y teoría de la compulsión (por ejemplo, máquinas Turing universales). Su libro Inteligencia artificial universal: decisiones secuenciales basadas en probabilidad algorítmica, que es un libro altamente técnico y matemático, describe su teoría de los agentes de aprendizaje de refuerzo Bayesianos no Markov óptimos.

También existe el campo de investigación llamado teoría del aprendizaje computacional , que se dedica al estudio del diseño y análisis de algoritmos de aprendizaje automático. Más precisamente, el campo se centra en el estudio riguroso y el análisis matemático de algoritmos de aprendizaje automático utilizando técnicas de campos como la teoría de la probabilidad, estadística, optimización, teoría de la información y geometría. Varias personas han trabajado en la teoría del aprendizaje computacional, incluidos Michael Kearns y Vladimir Vapnik . También hay un campo relacionado llamado teoría del aprendizaje estadístico .

También hay mucho esfuerzo de investigación dedicado a aproximaciones (heurísticas) de optimización combinatoria y problemas de NP completo , como la optimización de colonias de hormigas .

También hay algo de trabajo sobre la integridad de la IA , pero esto no ha recibido mucha atención (en comparación con las otras áreas de investigación mencionadas anteriormente).


4

La mayor parte del trabajo matemático que se realiza en IA con el que estoy familiarizado ya está cubierto en la respuesta de nbro. Una cosa que no creo que esté cubierta todavía en esa respuesta es probar equivalencia algorítmica y / o derivar algoritmos equivalentes . Uno de mis trabajos favoritos sobre esto es Aprender a predecir la independencia de Span por Hado van Hasselt y Richard Sutton.

La idea básica es que primero podemos formular un algoritmo (en forma matemática, por ejemplo, algunas reglas / ecuaciones de actualización para los parámetros que estamos entrenando) de una manera, y luego encontrar diferentes reglas / ecuaciones de actualización (es decir, un algoritmo diferente) para lo que podemos demostrar que es equivalente al primero (es decir, siempre da como resultado el mismo resultado).

Un caso típico en el que esto es útil es si el primer algoritmo es fácil de entender / apela a nuestra intuición / es más conveniente para las pruebas de convergencia u otro análisis teórico, y el segundo algoritmo es más eficiente (en términos de cálculo, requisitos de memoria, etc. .).


3

Específicamente para aparatos matemáticos de redes neuronales: teoría de matrices aleatorias . La teoría de la matriz aleatoria no asintótica se utilizó en algunas pruebas de convergencia del descenso de gradiente para redes neuronales , los paisajes aleatorios de alta dimensión en relación con el espectro de Hesse tienen relación con las superficies de pérdida de las redes neuronales .

El análisis de datos topológicos es otra área de investigación intensa relacionada con ML, AI y aplicada a redes neuronales .

Hubo algunos trabajos sobre geometría tropical de redes neuronales

La teoría del tipo de homotopía también tiene conexión con la IA

Al usar nuestro sitio, usted reconoce que ha leído y comprende nuestra Política de Cookies y Política de Privacidad.
Licensed under cc by-sa 3.0 with attribution required.