Respuestas:
Algunas razones de "nivel intestinal" explican por qué es mejor trabajar con la matriz de autocorrelación en lugar de una matriz con sus observaciones:
Por ejemplo, consideremos dos enfoques para la adaptación del modelo AR.
El error de reconstrucción cuadrática empírica en sus datos es:
donde es el vector de los coeficientes AR, es su vector de observaciones y la matriz con sus observaciones retrasadas. Debe encontrar el valor de que minimice esto. Después de la derivación y un poco de barajado, su solución se ve así:
Y está jodido porque no tiene absolutamente ninguna garantía de que pueda invertirse. En el proceso, numéricamente hablando, tenía que lidiar con productos matriciales bastante grandes si tenía una larga secuencia de observaciones.
Si adapta un ángulo de "proceso aleatorio" al problema, la cantidad que debe minimizar (el valor esperado del error) es:
Y terminas con la solución más sabrosa:
¡Con una garantía sólida de que esto será computable porque es positivo definitivo!
Parece que su problema es el del modelado sinusoidal (en lugar del modelado AR). Aquí se agita mucho la mano, pero lo que he dicho sobre el modelado AR y los obstáculos del uso de la matriz de datos sin procesar; también se aplica al modelado sinusoidal: la descomposición del valor propio es la operación problemática en lugar de la inversión de la matriz.
En primer lugar, los vectores propios y los valores propios se definen para los operadores. La correlación es una operación.
En segundo lugar, los vectores propios de la autocorrelación son particularmente interesantes porque explican de manera más eficiente la varianza de la señal en una regresión lineal. En otras palabras, para un número fijo de vectores, la selección de los vectores propios minimiza el error cuadrático medio donde la señal se modela como una suma lineal de los vectores. Esta técnica se conoce como análisis de componentes principales .
Si puede ampliar su noción de una señal "armoniosa", tal vez pueda hacer más comentarios.