Quizás simplificando la notación podemos sacar las ideas esenciales. Resulta que no necesitamos involucrar expectativas o fórmulas complicadas, porque todo es puramente algebraico.
La naturaleza algebraica de los objetos matemáticos.
La pregunta se refiere a las relaciones entre (1) la matriz de covarianza de un conjunto finito de variables aleatorias (2) relaciones lineales entre esas variables, consideradas como vectores .X1,…,Xn
El espacio vectorial en cuestión es el conjunto de todas las variables aleatorias de varianza finita (en cualquier espacio de probabilidad dado ) módulo del subespacio de variables constantes casi seguramente, denotado (Es decir, consideramos que dos variables aleatorias e son el mismo vector cuando hay cero posibilidades de que difiera de sus expectativas). Estamos tratando solo con el espacio vectorial finito dimensional generado por que es lo que hace de este un problema algebraico en lugar de analítico.(Ω,P)XYX-YV X i ,L2(Ω,P)/R.XYX−YVXi,
Lo que necesitamos saber sobre las variaciones
V es más que un simple espacio vectorial: es un módulo cuadrático, porque viene equipado con la varianza. Todo lo que necesitamos saber sobre las variaciones son dos cosas:
La varianza es una función escalar de valor con la propiedad de que Q ( una X ) = un 2 Q ( X ) para todos los vectores X .QQ(aX)=a2Q(X)X.
La varianza no es degenerada.
El segundo necesita alguna explicación. determina un "producto puntual", que es una forma bilineal simétrica dada porQ
X⋅Y=14(Q(X+Y)−Q(X−Y)).
(Por supuesto, esto no es otra cosa que la covarianza de las variables e Y ) . Los vectores X e Y son ortogonales cuando su producto de punto es 0. El complemento ortogonal de cualquier conjunto de vectores A ⊂ V consiste en todos los vectores ortogonales a cada elemento de A , escritoXY.XY0.A⊂VA,
A0={v∈V∣a.v=0 for all v∈V}.
Es claramente un espacio vectorial. Cuando , Q no es degenerado.V0= { 0 }Q
Permítanme demostrar que la variación no es degenerada, aunque parezca obvia. Supongamos que es un elemento distinto de cero de V 0 . Esto significa X ⋅ Y = 0 para todo Y ∈ V ; equivalentementeXV0.X⋅Y=0Y∈V;
Q(X+Y)=Q(X−Y)
para todos los vectores Tomar Y = X daY.Y= X
4 Q ( X) = Q ( 2 X) = Q ( X+ X) = Q ( X- X)=Q(0)=0
y por lo tanto Sin embargo, sabemos (usando la desigualdad de Chebyshev, tal vez) que las únicas variables aleatorias con varianza cero son casi seguramente constantes, lo que las identifica con el vector cero en V , QED.Q(X)=0.V,
Interpretando las preguntas
Volviendo a las preguntas, en la notación anterior la matriz de covarianza de las variables aleatorias es solo una matriz regular de todos sus productos de punto,
T=(Xi⋅Xj).
Hay una buena manera de pensar en : define una transformación lineal en R n de la forma habitual, enviando cualquier vector x = ( x 1 , ... , x n ) ∈ R n en el vector T ( x ) = y = ( y 1 , ... , x n ) cuyo i ésimo componente está dada por la regla de la multiplicación de la matrizTRnx=(x1,…,xn)∈RnT(x)=y=(y1,…,xn)ith
yyo= ∑j = 1norte( Xyo⋅ Xj) xj.
El núcleo de esta transformación lineal es el subespacio que envía a cero:
Ker( T) = { x ∈ Rnorte∣ T( x ) = 0 } .
La ecuación anterior implica que cuando para cada ix ∈ Ker( T) ,yo
0 = yyo= ∑j = 1norte( Xyo⋅ Xj) xj= Xyo⋅ ( ∑jXjXj) .
Como esto es cierto para cada se cumple para todos los vectores abarcados por X i : a saber, V en sí. En consecuencia, cuando x ∈ Ker ( T ) , el vector dado por ∑ j x j X j se encuentra en V 0 . Debido a que la varianza es no degenerada, esto significa Σ j x j X j = 0. Esto es, x describe una dependencia lineal entre los n originales variables aleatorias.i ,XyoVx ∈ Ker( T) ,∑jXjXjV0 0.∑jXjXj= 0.Xnorte
Puede comprobar fácilmente que esta cadena de razonamiento es reversible:
Dependencias lineales entre la como vectores están en correspondencia uno-a-uno con los elementos del núcleo de T .Xj T.
(Recuerde, esta declaración todavía considera que define como un cambio constante en la ubicación, es decir, como elementos de L 2 ( Ω , P ) / R, en lugar de solo como variables aleatorias).XjL2( Ω , P ) / R
Finalmente, por definición, un valor propio de es cualquier λ escalar para el que existe un vector x distinto de cero con T ( x ) = λ x . Cuando λ = 0 es un valor propio, el espacio de vectores propios asociados es (obviamente) el núcleo de T .TλXT(x)=λx.λ=0T.
Resumen
Hemos llegado a la respuesta a las preguntas: el conjunto de dependencias lineales de las variables aleatorias, qua elementos de corresponde uno a uno con el kernel de su covarianza matriz T . Esto es así porque la varianza es una forma cuadrática no degenerada. El núcleo también es el espacio propio asociado con el valor propio cero (o simplemente el subespacio cero cuando no hay valor propio cero).L2(Ω,P)/R,T.
Referencia
He adoptado en gran medida la notación y parte del lenguaje del Capítulo IV en
Jean-Pierre Serre, Un curso de aritmética. Springer-Verlag 1973.