diagonalización de la matriz: omitir elementos pequeños de la matriz


8

Me preguntaba si hay algún teorema que me permita poner un límite superior en el error introducido al omitir elementos de matriz pequeños de una matriz antes de la diagonalización.

Vamos a suponer que tenemos una gran matriz, cuya matriz de elementos van de 1 a 1015 . Si tuviera que establecer todos los elementos de la matriz más pequeños que a antes de diagonalizar la matriz, ¿qué tan grande sería el error en los valores propios y los vectores propios? 010100

¿Depende esta implementación?


lo que si la matriz se encuentra dentro de epsilon de una matriz que no es diagonalizable
k20

Respuestas:


6

Existe un campo de estudio conocido como análisis de sensibilidad de valor propio o análisis de perturbación de valor propio que le permite estimar el efecto de las perturbaciones de matriz pequeña en los valores propios y los vectores propios. La técnica básica utilizada para esto es diferenciar la ecuación de la matriz de valores propios,

AX=XΛ.

Para situaciones donde los valores propios de la matriz original son distintos, el siguiente documento tiene una derivación y resultados muy claros:

Mike Giles. "Una colección extendida de resultados derivados de matriz para la diferenciación algorítmica de modo directo e inverso". https://people.maths.ox.ac.uk/gilesm/files/NA-08-01.pdf

Cuando los valores propios no son distintos, se debe tener más cuidado. Vea la siguiente presentación y papel .

Para el caso especial de matrices simétricas con valores propios distintos, sujetos a una pequeña perturbación A A + d A , los resultados son lo suficientemente simples como para reproducirlos aquí. La derivada de la matriz de valores propios es, d Λ = diag ( U T d A A U ) , y la derivada de la matriz de vectores propios es, d U = U C ( d A ) , donde la matriz de coeficientes CA=UΛUTAA+dA

dΛ=diag(UTdAU),
dU=UC(dA),
Cse define como,
C={uiTdAujλjλi,i=j0,i=j

El siguiente artículo de Overton y Womersley tiene un gran análisis de sensibilidad para el caso simétrico, incluidas las segundas derivadas.

Overton, Michael L. y Robert S. Womersley. "Segundas derivadas para optimizar valores propios de matrices simétricas". SIAM Journal on Matrix Analysis and Applications 16.3 (1995): 697-718. http://ftp.cs.nyu.edu/cs/faculty/overton/papers/pdffiles/eighess.pdf


10

No depende de la implementación en el sentido de que esta es una operación matemática realizada en su matriz. Sin embargo, depende mucho de la matriz .

A=XDX1EX

X-1(UNA+mi)X=re+X-1miX.
re
miκ(X),
miκ(X)

UNAUNAUNAt=UNAtUNAXκ(X)=1

Λϵ(UNA)={zz es un valor propio de UNA+mi con miϵ}.
Λϵ(UNA)={z(zyo-UNA)-1ϵ-1}.
ϵκ(X)

En cierto sentido, dejar caer elementos pequeños de la matriz está bien: o no importan, y los nuevos resultados son tan precisos como el original, o importan, y sus resultados originales son tan inexactos como los nuevos resultados.


Muchas gracias por tu respuesta. la matriz en cuestión sería normal, lo cual es bueno :). ¿Podría elaborar un poco más sobre la afirmación "suponiendo que la matriz X no cambie mucho"? ¿Hay alguna forma de garantizar esto para las matrices normales?
ftiaronsem

XreX
Al usar nuestro sitio, usted reconoce que ha leído y comprende nuestra Política de Cookies y Política de Privacidad.
Licensed under cc by-sa 3.0 with attribution required.