Jacobi amortiguado
Supongamos que la matriz tiene diagonal . Si el espectro de encuentra en el intervalo del eje real positivo, entonces la matriz de iteración de Jacobi con factor de amortiguamiento
tiene espectro en el rango , por lo que minimizar el radio espectral con da un factor de convergencia de
Si , entonces este factor de convergencia es muy pobre, como se esperaba. Tenga en cuenta que es relativamente fácil estimarD D - 1 A [ a , b ] ω B Jacobi = I - ω D - 1 A [ 1 - ω b , 1 - ω a ] ω opt = 2ADD−1A[a,b]ω
BJacobi=I−ωD−1A
[1−ωb,1−ωa] ρopt=1-2aωopt=2a+b
a≪bbaρopt=1−2aa+b=b−aa+b.
a≪bbutilizando un método de Krylov, pero es bastante caro para estimar .
a
Sucesiva sobre-relajación (SOR)
Young (1950) demostró un resultado óptimo para SOR aplicarse a matrices con la llamada de la propiedad A , de pedido consistente , y valores propios reales positivos de . Dado un valor propio máximo de la matriz de iteración de Jacobi no amortiguada ( está garantizada por los supuestos en este caso), el factor de amortiguación óptimo para SOR es
que da como resultado una tasa de convergencia de
Tenga en cuenta que acerca a 2 cuando .μ max I - D - 1 A μ max < 1 ω opt = 1 + ( μ maxD−1AμmaxI−D−1Aμmax<1ρopt=ωopt-1.ωoptμmax→1
ωopt=1+(μmax1+1−μ2max−−−−−−−√)2
ρopt=ωopt−1.
ωoptμmax→1
Comentarios
Ya no es 1950 y realmente no tiene sentido usar métodos iterativos estacionarios como solucionadores. En cambio, los usamos como suavizadores para multirredes. En este contexto, solo nos interesa apuntar al extremo superior del espectro. La optimización del factor de relajación en SOR hace que SOR produzca muy poca amortiguación de altas frecuencias (a cambio de una mejor convergencia en frecuencias más bajas), por lo que generalmente es mejor usar Gauss-Seidel estándar, correspondiente a en SOR. Para problemas no simétricos y problemas con coeficientes altamente variables, el SOR poco relajado ( ) puede tener mejores propiedades de amortiguación.ω < 1ω=1ω<1
Estimar ambos valores propios de es costoso, pero el valor propio más grande se puede estimar rápidamente usando algunas iteraciones de Krylov. Los suavizadores polinómicos (preacondicionados con Jacobi) son más efectivos que las iteraciones múltiples de Jacobi amortiguado y son más fáciles de configurar, por lo que deberían preferirse. Consulte esta respuesta para obtener más información sobre los suavizadores polinómicos.D−1A
A veces se afirma que SOR no debe usarse como preacondicionador para métodos de Krylov como GMRES. Esto proviene de la observación de que el parámetro de relajación óptimo debe colocar todos los valores propios de la matriz de iteración en un círculo centrado en el origen. El espectro del operador preacondicionado(1
BSOR=1−(1ωD+L)−1A
(1ωD+L)−1Atiene valores propios en un círculo del mismo radio, pero centrado en 1. Para operadores mal condicionados, el radio del círculo es bastante cercano a 1, por lo que GMRES ve valores propios cercanos al origen en un rango de ángulos, lo que generalmente no es bueno para la convergencia En la práctica, GMRES puede converger razonablemente cuando se preacondiciona con SOR, especialmente para problemas que ya están bastante bien condicionados, pero otros preacondicionadores a menudo son más efectivos.