Estoy tratando de resolver algunos problemas de optimización no lineal sin restricciones en la GPU (CUDA).
La función objetivo es una función no lineal suave, y su gradiente es relativamente barato de calcular analíticamente, por lo que no necesito molestarme con la aproximación numérica.
Quiero resolver este problema principalmente con operaciones matemáticas de fp32 (por varias razones), entonces, ¿qué método de optimización no lineal es más robusto contra errores de redondeo y tiene un buen rendimiento? (p. ej., gradiente conjugado / cuasi newton / región de confianza), ¿alguien ha probado BFGS en GPU con buenos resultados?
Por cierto, el Hessian, si es necesario, es relativamente pequeño en mi caso (<64x64 típicamente), pero necesito resolver miles de estos problemas de optimización a pequeña escala al mismo tiempo.