Los algoritmos de aprendizaje automático utilizan la optimización todo el tiempo. Minimizamos la pérdida, el error o maximizamos algún tipo de funciones de puntuación. El descenso de gradiente es el algoritmo de optimización "hello world" cubierto en probablemente cualquier curso de aprendizaje automático. Es obvio en el caso de los modelos de regresión o clasificación, pero incluso con tareas como la agrupación, estamos buscando una solución que se ajuste de manera óptima a nuestros datos (por ejemplo, k-means minimiza la suma de cuadrados dentro del grupo). Entonces, si desea comprender cómo funcionan los algoritmos de aprendizaje automático, es útil aprender más sobre la optimización. Además, si necesita hacer cosas como el ajuste de hiperparámetros, también está utilizando directamente la optimización.
Se podría argumentar que la optimización convexa no debería ser tan interesante para el aprendizaje automático, ya que en lugar de tratar con funciones convexas , a menudo encontramos superficies de pérdida como la siguiente, que están lejos de ser convexas .
(fuente: https://www.cs.umd.edu/~tomg/projects/landscapes/ y arXiv: 1712.09913 )
Sin embargo, como se menciona en otras respuestas, la optimización convexa es más rápida, más simple y menos intensiva en cómputo, por lo que a menudo es más fácil "convexificar" un problema (hacer que la optimización convexa sea amigable), luego usar la optimización no convexa. Por ejemplo, el descenso de gradiente y algoritmos similares se usan comúnmente en el aprendizaje automático, especialmente para redes neuronales, porque "funcionan", escalan y se implementan ampliamente en diferentes programas, sin embargo, no son lo mejor que podemos obtener y tener sus dificultades. , como se discutió en la charla de Ali Rahimi en NIPS 2017 .
Por otro lado, los algoritmos de optimización no convexos como los algoritmos evolutivos parecen estar ganando cada vez más reconocimiento en la comunidad de ML, por ejemplo, el entrenamiento de redes neuronales por neuroevolución parece ser un tema de investigación reciente (véase también arXiv: 1712.07897 ).