¿Por qué tratamos con los vectores propios de la autocorrelación en lugar de los datos en sí?


8

¿Cuán intuitivamente entender por qué se usan vectores propios de la matriz de autocorrelación, pero los vectores propios de la matriz construida a partir de muestras temporales no tienen sentido y no se usan? Por ejemplo, en la detección de una señal armoniosa en ruido aditivo.

Respuestas:


5

Algunas razones de "nivel intestinal" explican por qué es mejor trabajar con la matriz de autocorrelación en lugar de una matriz con sus observaciones:

  • Si desea tener en cuenta todas sus observaciones y tiene muchos datos, terminará manipulando (invirtiendo, multiplicando) matrices bastante grandes. Si trabaja con la matriz de autocorrelación, "resume" sus datos una vez (en un paso bastante eficiente que requiere solo una FFT y una FFT inversa), y desde entonces, simplemente manipula su matriz de autocorrelación de tamaño donde es su orden de modelo (por ejemplo, para modelado AR o modelado sinusoidal).PAGS×PAGSPAGS
  • Con algunos datos simplemente no funciona numéricamente para usar las observaciones sin procesar porque se encuentra con situaciones en las que tiene que lidiar con matrices que no se garantiza que sean definitivas positivas.

Por ejemplo, consideremos dos enfoques para la adaptación del modelo AR.

Uso directo de la matriz de datos.

El error de reconstrucción cuadrática empírica en sus datos es:

ϵ=XTX+XTΓuna+unaTΓTX+unaTΓTΓuna

donde es el vector de los coeficientes AR, es su vector de observaciones y la matriz con sus observaciones retrasadas. Debe encontrar el valor de que minimice esto. Después de la derivación y un poco de barajado, su solución se ve así:unaXΓuna

una=-(ΓTΓ)-1ΓTX

Y está jodido porque no tiene absolutamente ninguna garantía de que pueda invertirse. En el proceso, numéricamente hablando, tenía que lidiar con productos matriciales bastante grandes si tenía una larga secuencia de observaciones.ΓTΓ

Vista de proceso aleatorio

Si adapta un ángulo de "proceso aleatorio" al problema, la cantidad que debe minimizar (el valor esperado del error) es:

ϵ=rX(0 0)+2runa+unaTRuna

Y terminas con la solución más sabrosa:

una=-R-1r

¡Con una garantía sólida de que esto será computable porque es positivo definitivo!R

Parece que su problema es el del modelado sinusoidal (en lugar del modelado AR). Aquí se agita mucho la mano, pero lo que he dicho sobre el modelado AR y los obstáculos del uso de la matriz de datos sin procesar; también se aplica al modelado sinusoidal: la descomposición del valor propio es la operación problemática en lugar de la inversión de la matriz.


2

En primer lugar, los vectores propios y los valores propios se definen para los operadores. La correlación es una operación.

En segundo lugar, los vectores propios de la autocorrelación son particularmente interesantes porque explican de manera más eficiente la varianza de la señal en una regresión lineal. En otras palabras, para un número fijo de vectores, la selección de los vectores propios minimiza el error cuadrático medio donde la señal se modela como una suma lineal de los vectores. Esta técnica se conoce como análisis de componentes principales .

Si puede ampliar su noción de una señal "armoniosa", tal vez pueda hacer más comentarios.


Sí, y puedo agregar, también se puede trabajar con la matriz de datos en el análisis de componentes principales. Sin embargo, esto implica una descomposición de valores singulares en su lugar.
Bryan
Al usar nuestro sitio, usted reconoce que ha leído y comprende nuestra Política de Cookies y Política de Privacidad.
Licensed under cc by-sa 3.0 with attribution required.