La mayoría de los mejores métodos modernos para la optimización a gran escala implican hacer una aproximación cuadrática local a la función objetivo, avanzar hacia el punto crítico de esa aproximación y luego repetir. Esto incluye el método de Newton, L-BFGS, etc.
Una función solo puede ser localmente bien aproximada por un cuadrático con un mínimo si el hessiano en el punto actual es positivo definido. Si el hessiano es indefinido, entonces
La aproximación cuadrática local es una buena aproximación local a la función objetivo y, por lo tanto, es una superficie de silla de montar. Luego, el uso de esta aproximación cuadrática sugeriría moverse hacia un punto de silla de montar, que probablemente esté en la dirección incorrecta, o
La aproximación cuadrática local se ve obligada a tener un mínimo por construcción, en cuyo caso es probable que sea una mala aproximación a la función objetivo original.
(El mismo tipo de problemas surgen si el Hessian es negativo definido, en cuyo caso localmente parece un cuenco al revés)
Por lo tanto, estos métodos funcionarán mejor si el Hessian es positivo definido en todas partes, lo que es equivalente a la convexidad para funciones suaves.
Por supuesto, todos los buenos métodos modernos tienen salvaguardas para garantizar la convergencia al moverse a través de regiones donde el Hessian es indefinido: por ejemplo, búsqueda de línea, regiones de confianza, detención de una solución lineal cuando se encuentra una dirección de curvatura negativa, etc. Sin embargo, en En tales regiones indefinidas, la convergencia es generalmente mucho más lenta, ya que no se puede utilizar la información de curvatura completa sobre la función objetivo.