Estoy tratando de entender cómo funciona el método de optimización basado en adjuntos para una optimización restringida PDE. Particularmente, estoy tratando de entender por qué el método adjunto es más eficiente para problemas donde el número de variables de diseño es grande, pero el "número de ecuaciones es pequeño".
Lo que yo entiendo:
Considere el siguiente problema de optimización restringida de PDE:
donde es una función objetivo (suficientemente continua) de un vector de variables de diseño y un vector de variables de campo incógnitas que dependen de las variables de diseño, y es la forma residual del PDE.
Claramente, podemos las primeras variaciones de I y R como
Introduciendo un vector de multiplicadores de lagrange , la variación en la función objetivo se puede escribir como
Al reorganizar los términos, podemos escribir:
Por lo tanto, si somos capaces de resolver modo que
Luego se evalúa el gradiente solo en términos de las variables de diseño .
Por lo tanto, un algoritmo de optimización basado en adjuntos recorrería los siguientes pasos:
- Dadas las variables de diseño actuales
- Resolver para las variables de campo (del PDE)
- Resolver para los multiplicadores de lagrange (de la ecuación adjunta)
- Calcular gradientes
- Actualizar variables de diseño
Mi pregunta
¿Cómo mejora este 'truco' adjunto el costo de la optimización por iteración en el caso en que el número de variables de diseño es grande? Escuché que el costo de la evaluación de gradiente para el método adjunto es 'independiente' del número de variables de diseño. Pero, ¿cómo es exactamente esto cierto?
Estoy seguro de que hay algo muy obvio que de alguna manera estoy pasando por alto.