Según Wikipedia, la tasa de convergencia se expresa como una relación específica de las normas vectoriales. Estoy tratando de entender la diferencia entre las tasas "lineales" y "cuadráticas", en diferentes puntos de tiempo (básicamente, "al comienzo" de la iteración y "al final"). ¿Podría decirse que:
con convergencia lineal, la norma del error de la iteración está limitada por x k + 1 ‖ e k ‖
con convergencia cuadrática, la norma del error de la iteración está limitada por
Dicha interpretación significaría que, con unos pocos (pequeño número de) iteraciones del algoritmo A1 linealmente convergente (se supone una inicialización aleatoria), se lograría un error menor que con unas pocas iteraciones del algoritmo A2 cuadráticamente convergente. Sin embargo, dado que el error disminuye y debido a la cuadratura, las iteraciones posteriores significarían un error menor con A2.
¿Es válida la interpretación anterior? Tenga en cuenta que no tiene en cuenta el coeficiente de velocidad .