Condiciones suficientes y necesarias para el valor propio cero de una matriz de correlación


11

Dada variable aleatoria , con distribución de probabilidad , la matriz de correlación es positivo semi-definidas, es decir, sus valores propios son positivos o ceronXiP(X1,,Xn)Cij=E[XiXj]E[Xi]E[Xj]

Estoy interesado en las condiciones en que son necesarias y / o suficientes para que tenga valores propios cero. Por ejemplo, una condición suficiente es que las variables aleatorias no son independientes: para algunos números reales . Por ejemplo, si , entonces es un vector propio de con valor propio cero. Si tenemos restricciones lineales independientes en las 's de este tipo, implicaría cero valores propios.PCmiuiXi=0uiP(X1,,Xn)=δ(X1X2)p(X2,,Xn)u=(1,1,0,,0)CmXim

Hay al menos una posibilidad adicional (pero trivial), cuando para algún (es decir, ), ya que en ese el caso tiene una columna y una línea de ceros: . Como no es realmente interesante, supongo que la distribución de probabilidad no es de esa forma.Xa=E[Xa]aP(X1,,Xn)δ(XaE[Xa])CijCia=Cai=0,i

Mi pregunta es: ¿son las restricciones lineales la única forma de inducir valores propios cero (si prohibimos la excepción trivial dada anteriormente), o las restricciones no lineales en las variables aleatorias también pueden generar valores propios cero de ?C


1
Por definición, una colección de vectores que incluye el vector cero depende linealmente, por lo que su posibilidad adicional no es nada nuevo o diferente. Podría explicar qué quiere decir con "tener un valor propio"? Eso parece algún tipo de error tipográfico. m
whuber

@whuber: sí, error tipográfico. Corregido Creo que las dos condiciones son diferentes: una trata sobre la relación entre las variables, mientras que la otra trata sobre la probabilidad de una sola variable (es decir, ). p(Xa)=δ(XaE(Xa))
Adam

La formulación de su pregunta es confusa. Se ve como un teorema elemental de álgebra lineal, pero las referencias a variables aleatorias "independientes" sugieren que podría ser de otra cosa por completo. ¿Sería correcto entender que cada vez que usa "independiente" quiere decir en el sentido de independencia lineal y no en el sentido de variables aleatorias (estadísticamente) independientes? Su referencia a los "datos faltantes" es aún más confusa, porque sugiere que sus "variables aleatorias" realmente podrían significar solo columnas de una matriz de datos. Sería bueno ver estos significados aclarados.
whuber

@whuber: he editado la pregunta. Ojalá sea más claro.
Adam

La condición para la independencia no necesariamente debe ser cero (cualquier constante lo hará), a menos que la media de cada sea ​​cero. X iiuiXi=0Xi
Sextus Empiricus

Respuestas:


6

Quizás simplificando la notación podemos sacar las ideas esenciales. Resulta que no necesitamos involucrar expectativas o fórmulas complicadas, porque todo es puramente algebraico.


La naturaleza algebraica de los objetos matemáticos.

La pregunta se refiere a las relaciones entre (1) la matriz de covarianza de un conjunto finito de variables aleatorias (2) relaciones lineales entre esas variables, consideradas como vectores .X1,,Xn

El espacio vectorial en cuestión es el conjunto de todas las variables aleatorias de varianza finita (en cualquier espacio de probabilidad dado ) módulo del subespacio de variables constantes casi seguramente, denotado (Es decir, consideramos que dos variables aleatorias e son el mismo vector cuando hay cero posibilidades de que difiera de sus expectativas). Estamos tratando solo con el espacio vectorial finito dimensional generado por que es lo que hace de este un problema algebraico en lugar de analítico.(Ω,P)XYX-YV X i ,L2(Ω,P)/R.XYXYVXi,

Lo que necesitamos saber sobre las variaciones

V es más que un simple espacio vectorial: es un módulo cuadrático, porque viene equipado con la varianza. Todo lo que necesitamos saber sobre las variaciones son dos cosas:

  1. La varianza es una función escalar de valor con la propiedad de que Q ( una X ) = un 2 Q ( X ) para todos los vectores X .QQ(aX)=a2Q(X)X.

  2. La varianza no es degenerada.

El segundo necesita alguna explicación. determina un "producto puntual", que es una forma bilineal simétrica dada porQ

XY=14(Q(X+Y)Q(XY)).

(Por supuesto, esto no es otra cosa que la covarianza de las variables e Y ) . Los vectores X e Y son ortogonales cuando su producto de punto es 0. El complemento ortogonal de cualquier conjunto de vectores AV consiste en todos los vectores ortogonales a cada elemento de A , escritoXY.XY0.AVA,

A0={vVa.v=0 for all vV}.

Es claramente un espacio vectorial. Cuando , Q no es degenerado.V0={0}Q

Permítanme demostrar que la variación no es degenerada, aunque parezca obvia. Supongamos que es un elemento distinto de cero de V 0 . Esto significa X Y = 0 para todo Y V ; equivalentementeXV0.XY=0YV;

Q(X+Y)=Q(XY)

para todos los vectores Tomar Y = X daY.Y=X

4 4Q(X)=Q(2X)=Q(X+X)=Q(X-X)=Q(0 0)=0 0

y por lo tanto Sin embargo, sabemos (usando la desigualdad de Chebyshev, tal vez) que las únicas variables aleatorias con varianza cero son casi seguramente constantes, lo que las identifica con el vector cero en V , QED.Q(X)=0.V,

Interpretando las preguntas

Volviendo a las preguntas, en la notación anterior la matriz de covarianza de las variables aleatorias es solo una matriz regular de todos sus productos de punto,

T=(XiXj).

Hay una buena manera de pensar en : define una transformación lineal en R n de la forma habitual, enviando cualquier vector x = ( x 1 , ... , x n ) R n en el vector T ( x ) = y = ( y 1 , ... , x n ) cuyo i ésimo componente está dada por la regla de la multiplicación de la matrizTRnx=(x1,,xn)RnT(x)=y=(y1,,xn)ith

yi=j=1n(XiXj)xj.

El núcleo de esta transformación lineal es el subespacio que envía a cero:

Ker(T)={xRnT(x)=0}.

La ecuación anterior implica que cuando para cada ixKer(T),i

0=yi=j=1n(XiXj)xj=Xi(jxjXj).

Como esto es cierto para cada se cumple para todos los vectores abarcados por X i : a saber, V en sí. En consecuencia, cuando x Ker ( T ) , el vector dado por j x j X j se encuentra en V 0 . Debido a que la varianza es no degenerada, esto significa Σ j x j X j = 0. Esto es, x describe una dependencia lineal entre los n originales variables aleatorias.i,XiVxKer(T),jxjXjV0.jXjXj=0.Xnorte

Puede comprobar fácilmente que esta cadena de razonamiento es reversible:

Dependencias lineales entre la como vectores están en correspondencia uno-a-uno con los elementos del núcleo de T .Xj T.

(Recuerde, esta declaración todavía considera que define como un cambio constante en la ubicación, es decir, como elementos de L 2 ( Ω , P ) / R, en lugar de solo como variables aleatorias).XjL2(Ω,PAG)/ /R

Finalmente, por definición, un valor propio de es cualquier λ escalar para el que existe un vector x distinto de cero con T ( x ) = λ x . Cuando λ = 0 es un valor propio, el espacio de vectores propios asociados es (obviamente) el núcleo de T .TλXT(x)=λx.λ=0T.


Resumen

Hemos llegado a la respuesta a las preguntas: el conjunto de dependencias lineales de las variables aleatorias, qua elementos de corresponde uno a uno con el kernel de su covarianza matriz T . Esto es así porque la varianza es una forma cuadrática no degenerada. El núcleo también es el espacio propio asociado con el valor propio cero (o simplemente el subespacio cero cuando no hay valor propio cero).L2(Ω,P)/R,T.


Referencia

He adoptado en gran medida la notación y parte del lenguaje del Capítulo IV en

Jean-Pierre Serre, Un curso de aritmética. Springer-Verlag 1973.


Whoa, eso es genial! Solo una pregunta para asegurarme de que entiendo todo: cuando escribes " como vectores" no te refieres a recopilar las variables aleatorias en un vector (es decir, X = ( X 1 , ... , X n ) ), o no ? Si estoy en lo cierto, supongo que está recopilando los posibles valores de la variable aleatoria X i en un vector, mientras que la distribución de probabilidad está oculta en la definición de la varianza, ¿verdad? XjX=(X1,,Xn)Xi
Adam

Creo que el aspecto principal que no está del todo claro es el siguiente (que podría mostrar mi falta de conocimiento formal de la teoría de la probabilidad): parece mostrar que si hay un valor propio 0, entonces tenemos, por ejemplo, . Esta restricción no se refiere a la distribución de probabilidad P , que está oculta en Q (creo que este es el punto inteligente de esta demostración). Pero, ¿qué significa tener X 1 = X 2 sin referencia a P ? ¿O simplemente implica que P δ ( X 1 - X 2 )X1=X2PQX1=X2PPδ(X1X2), pero entonces, ¿cómo sabemos que debe ser una combinación lineal de y X 2 en la función deltaX1X2 ?
Adam

Me temo que no entiendo tu uso de una "función delta" en este contexto, Adam. Esto se debe en parte a que no lo necesito y en parte porque la notación es ambigua: ¿sería un delta de Kronecker o un delta de Dirac, por ejemplo?
whuber

Sería un Kronecker o un Dirac dependiendo de las variables (discretas o continuas). Estos delta podrían ser parte de la medida de integración, por ejemplo, yo integro más de 2 por 2 matrices (entonces cuatro variables reales X 1 , X 2 , X 3 y X 4 , con algo de peso (digamos P = exp ( - t r ( M . M T ) ) ), o la integración de más de un sub-grupo. Si se trata de matrices simétricas (lo que implica, por ejemplo, X 2 = X 3MX1X2X3X4P=exp(tr(M.MT))X2=X3), Puedo imponerlo formalmente multiplicando por δ ( X 1 - X 2 ) . Esto sería una restricción lineal. Un ejemplo de restricción no lineal se da en los comentarios debajo de la respuesta de Martijn Weterings. Pδ(X1X2)
Adam

(continuación) La pregunta es: ¿qué lata de restricciones no lineales que puedo agregar a mis variables puede inducir un valor propio 0? Según sus respuestas, parece ser: solo una restricción no lineal que implica una restricción lineal (como se ejemplifica en los comentarios debajo de la respuesta de Martijn Weterings). Quizás el problema es que mi forma de pensar sobre el problema es desde el punto de vista físico, y lucho por explicarlo en un idioma diferente (creo que este es el lugar correcto para hacer esta pregunta, no física. SE).
Adam

5

La independencia lineal no solo es suficiente, sino también una condición necesaria

Para mostrar que la matriz de varianza-covarianza tiene valores propios iguales a cero si y solo si las variables no son linealmente independientes, solo queda por demostrar que "si la matriz tiene valores propios iguales a cero, entonces las variables no son linealmente independientes".

Si tiene un valor propio cero para entonces hay alguna combinación lineal (definida por el vector propio v )Cij=Cov(Xi,Xj)v

Y=i=1nvi(Xi)

tal que

Cov(Y,Y)=i=1nj=1nvivjCov(Xi,Xj)=i=1nvij=1nvjCij=i=1nvi0=0

lo que significa que tiene que ser una constante y por lo tanto las variables x i tengo para añadir hasta una constante y son o bien constantes de sí mismos (el caso trivial) o no linealmente independientes.YXi

- la primera línea en la ecuación con se debe a la propiedad de covarianza Cov ( a U + b V , c W + d X ) = a cCov(Y,Y)

Cov(aU+bV,cW+dX)=acCov(U,W)+bcCov(V,W)+adCov(U,X)+bdCov(V,X)

- el paso de la segunda a la tercera línea se debe a la propiedad de un valor propio cero

j=1nvjCij=0


Restricciones no lineales

Entonces, dado que las restricciones lineales son una condición necesaria (no solo suficiente), las restricciones no lineales solo serán relevantes cuando indirectamente implican una restricción lineal (necesaria).

De hecho, existe una correspondencia directa entre los vectores propios asociados con el valor propio cero y las restricciones lineales.

Cv=0Y=i=1nviXi=const

Por lo tanto, las restricciones no lineales que conducen a un valor propio cero deben, juntas combinadas, generar alguna restricción lineal.


¿Cómo pueden las restricciones no lineales conducir a restricciones lineales?

Su ejemplo en los comentarios puede mostrar intuitivamente cómo las restricciones no lineales pueden conducir a restricciones lineales al invertir la derivación. Las siguientes restricciones no lineales

a2+b2=1c2+d2=1ac+bd=0adbc=1

puede reducirse a

a2+b2=1c2+d2=1ad=0b+c=0

Podrías invertir esto. Supongamos que tiene restricciones no lineales más lineales, entonces no es extraño imaginar cómo podemos reemplazar una de las restricciones lineales con una restricción no lineal, completando las restricciones lineales en las restricciones no lineales. Por ejemplo, cuando sustituimos y b = - c en la forma no lineal a 2 + b 2 = 1, entonces puede establecer otra relación a d - b c = 1 . Y cuando multiplicas a = d y c = -a=db=ca2+b2=1adbc=1a=d entonces obtienes a c = - b d .c=bac=bd


Supongo que esto (y la respuesta de Whuber) es una respuesta indirecta a mi pregunta (que era: "la dependencia lineal es la única forma de obtener un valor propio cero") de esta manera: incluso si la dependencia entre las variables aleatorias no es lineal, siempre se puede reescribir como una dependencia lineal simplemente escribiendo . Aunque realmente estaba buscando la manera de caracterizar las posibles restricciones no lineales, supongo que es un resultado útil. Y=iνiXi
Adam

Sí, lo sé ... lo que digo es que si hay una dependencia no lineal y hay un valor propio cero, entonces, por su respuesta, significa que la dependencia no lineal puede ser "factorizada" de alguna manera en una dependencia lineal. Es una versión más débil de lo que estaba buscando, pero sigue siendo algo.
Adam

Estás dando un ejemplo que no funciona, lo que no significa que no pueda ser el caso ...
Adam

MM.MT=1detM=1detM=1

M11=X1M12=X2M21=X3M22=X4X12+X22=1X32+X42=1X1X3+X2X4=0X1X4X2X3=1

2

Cv0var(vTX)=vTCv=0vTXvTE[X]vTX=vTE[X]. No hay necesidad de considerar ningún caso especial.

Por lo tanto, concluimos:

"¿son las restricciones lineales la única forma de inducir cero valores propios [?]"

Si.

"¿pueden las restricciones no lineales sobre las variables aleatorias generar también valores propios cero de C?"

Sí, si implican restricciones lineales.


Estoy de acuerdo. Esperaba que uno pudiera ser más específico sobre el tipo de restricciones no lineales, pero supongo que es difícil hacerlo mejor si no especificamos las restricciones.
Adam

2

CXC=QΛQTΛ.Λ=QTCQQTXX


QTCQ=cov(QTX)
Al usar nuestro sitio, usted reconoce que ha leído y comprende nuestra Política de Cookies y Política de Privacidad.
Licensed under cc by-sa 3.0 with attribution required.