Considere que tiene un problema en un espacio de Hilbert o Banach de dimensión infinita (piense en un PDE o un problema de optimización en dicho espacio) y tiene un algoritmo que converge débilmente en una solución. Si discretiza el problema y aplica el algoritmo discretizado correspondiente al problema, entonces la convergencia débil es la convergencia en cada coordenada y, por lo tanto, también es fuerte. Mi pregunta es:
¿Este tipo de convergencia fuerte se siente o se ve diferente de la convergencia obtenida de la buena y antigua convergencia fuerte del algoritmo infinito original?
O, más concreto:
¿Qué tipo de mal comportamiento puede ocurrir con un "método discretamente discreto de convergencia"?
Por lo general, yo mismo no estoy muy contento cuando solo puedo demostrar una convergencia débil, pero hasta ahora no pude observar algún problema con el resultado de los métodos, incluso si escalo el problema de problemas discretizados a dimensiones más altas.
Tenga en cuenta que no estoy interesado en el problema "primero discretiza que optimiza" versus "primero optimiza que discretiza" y soy consciente de los problemas que pueden ocurrir si aplica un algoritmo a un problema discretizado que no comparte todas las propiedades con el problema para lo cual fue diseñado el algoritmo.