Para ampliar el comentario de Zachary, la matriz de covarianza no captura la "relación" entre dos variables aleatorias, ya que "relación" es un concepto demasiado amplio. Por ejemplo, probablemente querríamos incluir la dependencia de dos variables entre sí para incluirlas en cualquier medida de su "relación". Sin embargo, sabemos quecov(X,Y)=0no implica que sean independientes, como es el caso de dos variables aleatorias X ~ U (-1,1) e Y = X ^ 2 (para una breve prueba, consulte: https://en.wikipedia.org / wiki / Covarianza # falta de correlación e independencia ).
Entonces, si pensáramos que la covarianza incluye información completa sobre las relaciones variables, como usted pregunta, la covarianza cero sugiere que no hay dependencia. Esto es lo que quiere decir Zachary cuando dice que puede haber dependencias no lineales que la covarianza no captura.
Sin embargo, dejemos X:=(X1,...,Xn)′ ser multivariante normal, X ~N(μ,Σ). EntoncesX1,...,Xn son independientes si Σ es una matriz diagonal con todos los elementos fuera de la diagonal = 0 (si todas las covarianzas = 0).
Para ver que esta condición es suficiente, observe que los factores de densidad articular,
f(x1,...,xn)=1(2π)n|Σ|−−−−−−−√exp(−12(x−μ)′Σ−1(x−μ))=Πni=112πσii−−−−√exp(−(xi−μi)22σii)=f1(x1)...fn(xn)
.
Para ver que la condición es necesaria, recuerde el caso bivariado. SiX1 y X2 son independientes, entonces X1 y X1|X2=x2 debe tener la misma varianza, entonces
σ11=σ11|2=σ11−σ212σ−122
lo que implica σ12=0. Por el mismo argumento, todos los elementos fuera de la diagonal deΣ debe ser cero
(fuente: diapositivas de Econometría avanzada del profesor Geert Dhaene)