Si A y B están correlacionados con C, ¿por qué A y B no están necesariamente correlacionados?


62

Sé empíricamente que ese es el caso. Acabo de desarrollar modelos que se encuentran con este enigma. También sospecho que no es necesariamente una respuesta sí / no. Quiero decir que si A y B están correlacionados con C, esto puede tener alguna implicación con respecto a la correlación entre A y B. Pero, esta implicación puede ser débil. Puede ser solo una señal de dirección y nada más.

Esto es lo que quiero decir ... Digamos que A y B tienen una correlación de 0.5 con C. Dado que, la correlación entre A y B bien podría ser 1.0. Creo que también podría ser 0.5 o incluso más bajo. Pero, creo que es poco probable que sea negativo. ¿Estás de acuerdo con eso?

Además, ¿hay alguna implicación si está considerando el coeficiente de correlación de Pearson estándar o, en cambio, el coeficiente de correlación de Spearman (rango)? Mis observaciones empíricas recientes se asociaron con el coeficiente de correlación de Spearman.


38
Un ejemplo es tomar , , y . Podemos tomar y a ser independientes, sin embargo, ambos y están correlacionados (positivamente, Pearson) con . B = Y C = X + Y X Y A B CA=XB=YC=X+YXYABC

1
Gracias, ese es realmente un gran comentario. Corto, pero captura la esencia de la razón por la que es así.
Sympa

Respuestas:


53

Debido a que la correlación es una propiedad matemática de las distribuciones multivariadas, se puede obtener una idea puramente a través de los cálculos, independientemente de la génesis estadística de esas distribuciones.

Para las correlaciones de Pearson , tenga en cuenta las variables multinormales , , . Es útil trabajar con ellos porque cualquier matriz definida no negativa en realidad es la matriz de covarianza de algunas distribuciones multinormales, lo que resuelve la cuestión de la existencia. Si nos atenemos a las matrices con en la diagonal, las entradas fuera de la diagonal de la matriz de covarianza serán sus correlaciones. Escribir la correlación de e como , la correlación de y como , y la correlación de y comoY Z 1 X Y ρ Y Z τ X Z σXYZ1XYρYZτXZσ , calculamos que

  • 1+2ρστ(ρ2+σ2+τ2)0 (porque este es el determinante de la matriz de correlación y no puede ser negativo).

  • Cuando esto implica que . Para decirlo de otra manera: cuando tanto como son de gran magnitud, y deben tener una correlación distinta de cero.ρ 2 + τ 21 ρ τ X Zσ=0ρ2+τ21ρτXZ

  • Si , entonces es posible cualquier valor no negativo de (entre y por supuesto).σ 0 1ρ2=τ2=1/2σ01

  • Cuando , se permiten valores negativos de . Por ejemplo, cuando , puede estar entre y .σ ρ = τ = 1 / 2 σ - 1 / 2 1ρ2+τ2<1σρ=τ=1/2σ1/21

Estas consideraciones implican que de hecho hay algunas restricciones en las correlaciones mutuas. Las restricciones (que dependen solo de la definición no negativa de la matriz de correlación, no de las distribuciones reales de las variables) pueden ajustarse dependiendo de los supuestos sobre las distribuciones univariadas. Por ejemplo, es fácil ver (y probar) que cuando las distribuciones de e no están en la misma familia de escala de ubicación, sus correlaciones deben ser estrictamente menores que en tamaño. (Prueba: una correlación de implica que e están linealmente relacionados como)Y 1 ± 1 X YXY1±1XY

En cuanto a las correlaciones de rango de Spearman , considere tres observaciones trivariadas , y de . Sus correlaciones de rango mutuo son , y . Así, incluso la señal de la correlación de rango de y puede ser la inversa de los signos de las correlaciones de y y y .( 2 , 3 , 1 ) ( 3 , 2 , 3 ) ( X , Y , Z ) 1 / 2 1 / 2 - 1 / 2 Y Z X Y X Z(1,1,2)(2,3,1)(3,2,3)(X,Y,Z)1/21/21/2YZXYXZ


Whuber, ¿qué son las "variables multinormales"?
Sympa


Como de costumbre, una explicación más completa le da una marca bien merecida "Mejor respuesta".
Sympa

@Gaetan Lion Eres muy amable. Disfruté leyendo todas las respuestas a esta pregunta (y las marqué todas).
whuber

88

Estoy en un viaje anual de pesca en este momento. Existe una correlación entre la hora del día que pesco y la cantidad de peces que pesco. También existe una correlación entre el tamaño del cebo que uso y la cantidad de peces que atrapo. No hay correlación entre el tamaño del cebo y la hora del día.


Albahaca, me encanta! +1 para una explicación sencilla en inglés.
Sympa

Mejor. Responder. En stats.stackexchange. Nunca
Chris Beeley

1
Esto describe un caso donde las correlaciones son bajas para empezar, pero no explica el caso donde las correlaciones son más altas. Si hay una correlación del 80% con la hora del día, y hay una correlación del 80% con el tamaño del cebo, ¡puedo garantizar que está usando un cebo más grande durante el día!
user35581

2
@ user35581 no, no puedes: te estás perdiendo todo el punto. Cada hora podía pescar una vez con cebo pequeño y una vez con cebo grande. Todavía puede atrapar más peces durante ciertas partes del día (correlación del 80%) y atrapar más peces con cebo más grande (correlación del 80%) y hay 0 correlaciones entre el tamaño del cebo que está usando y la hora del día. Incluso podría ser una correlación negativa si usa un cebo más grande con mayor frecuencia durante las horas pico del día para compensar el mal momento del día. Entonces realmente no sabe nada sobre la correlación entre la hora del día y el tamaño del cebo.
rysqui

2
@rysqui lo siento, mi comentario estaba mal redactado, pero el punto que estaba tratando de hacer fue este: cuando las correlaciones entre las características y el objetivo son muy altas, entonces tus características también deben estar correlacionadas. Entonces, si tiene una correlación perfecta entre la hora del día y el tamaño de la captura, y una correlación perfecta entre el tamaño del cebo y el tamaño de la captura, entonces también debe tener una correlación perfecta entre el tamaño del cebo y la hora del día, de ahí la declaración final "estás usando cebo más grande durante el día". ¡Tenga en cuenta que este es un caso extremo!
user35581

20

La correlación es el coseno del ángulo entre dos vectores. En la situación descrita, (A, B, C) es un triple de observaciones, realizadas n veces, siendo cada observación un número real. La correlación entre A y B es el coseno del ángulo entre y medido en el espacio euclidiano n-dimensional. Entonces nuestra situación se reduce a considerar 3 vectores , y en n espacio dimensional. Tenemos 3 pares de vectores y, por lo tanto, 3 ángulos. Si dos de los ángulos son pequeños (alta correlación), el tercero también será pequeño. Pero decir "correlacionado" no es una gran restricción: significa que el ángulo está entre 0 yVA=AE(A)VB=BE(B)VAVBVCπ/2. En general, esto no da ninguna restricción en absoluto en el tercer ángulo. Dicho de otra manera, comience con cualquier ángulo menor que entre y (cualquier correlación excepto -1). Deje el ángulo entre y . Entonces C estará correlacionado con A y B.πVAVBVCVAVB


La correlación de +1 en términos de un ángulo entre vectores multidimensionales es intuitiva para mí.
Petrus Theron

2
Para referencia de futuros lectores, amplío
Jake Westfall

18

Como complemento de la respuesta de Whuber: la fórmula presentada

1+2ρστ(ρ2+σ2+τ2)0 .

puede transformarse en la siguiente desigualdad (Olkin, 1981):

στ(1σ2)(1τ2)ρστ+(1σ2)(1τ2)

Una representación gráfica de los límites superior e inferior para ve así:ρ

ingrese la descripción de la imagen aquí


Olkin, I. (1981). Restricciones de rango para matrices de correlación producto-momento. Psychometrika, 46, 469-472. doi: 10.1007 / BF02293804


¿Alguien puede decirme si algunos de estos ejemplos son distribuciones multivariadas que tienen distribuciones marginales específicas que restringen el rango de posibles correlaciones entre componentes? Eso significa que las correlaciones no pueden tomar el rango completo de -1 a 1. Recuerdo que Frechet fue al menos una persona que desarrolló esto en la década de 1950. Mientras busco en la literatura hoy, creo que ahora se llaman cópulas Frechet.
Michael Chernick

14

Creo que es mejor preguntar "¿por qué DEBERÍAN estar correlacionados?" o, tal vez "¿Por qué debería tener alguna correlación particular?"

El siguiente código R muestra un caso en el que x1 y x2 están correlacionadas con Y, pero tienen una correlación 0 entre sí

x1 <- rnorm(100)
x2  <- rnorm(100)
y <- 3*x1 + 2*x2 + rnorm(100, 0, .3)

cor(x1,y)
cor(x2,y)
cor(x1,x2)

La correlación con Y puede fortalecerse reduciendo .3 a .1 o lo que sea


Lamentablemente, no soy un usuario R. Entonces, los códigos anteriores significan menos para mí de lo que significan para ti.
Sympa

2
@Gaetan Lion: en este código, y son normales raíz independientes, y más un término de ruido normal con desviación estándar de 0.3. Claramente, está positivamente correlacionado con y , que son independientes. x 2 y = 3 x 1 + 2 x 2 y x 1 x 2x1x2y=3x1+2x2yx1x2
shabbychef

14

Dejaré la demostración estadística a aquellos que están mejor preparados que yo para ello ... pero intuitivamente digo que el evento A genera un proceso X que contribuye a la generación del evento C. Luego, A está correlacionado con C (a través de X). B, por otro lado, genera Y, que también da forma a C. Por lo tanto, A está correlacionado con C, B está correlacionado con C pero A y B no están correlacionados.


1
@Agradable. Creo que quiere decir "A y B no están correlacionados" en la última parte de su última oración.
suncoolsu

Sí, Nico con corrección de suncoolsu ... esta es una explicación razonablemente buena. Está describiendo parcialmente el análisis de ruta.
Sympa

Sí, lo siento, me confundí con las letras;)
nico

1

Para aquellos que quieren algo de intuición, una correlación puede verse como un coseno de algún ángulo. Entonces, considere tres vectores en 3D, digamos A, B y C, cada uno correspondiente a una variable. La pregunta es determinar el rango de ángulos posibles entre A y C cuando se conocen el ángulo entre A y B, así como el ángulo entre B y C. Para eso, puedes jugar con una herramienta en línea sin instalar ningún software. Simplemente vaya a la página http://www.montefiore.ulg.ac.be/~pierard/chained_correlations.php


0

Tomemos un ejemplo:

A={x1,x2,x3,x4,x5,x6,x7,x8,x9}

B={x1,x2,x3,0,0,0,0,0,0}

C={0,0,0,x4,x5,x6,0,0,0}

Para algunos x, A y B tendrán una correlación significativa, de manera similar, A y C también tendrán una correlación significativa, pero la correlación de B y C no será significativa.

Entonces, no es necesariamente cierto que si A y B están correlacionados y A y C están correlacionados, entonces B y C también están correlacionados.

Nota: Para una comprensión profunda, piense en este ejemplo en datos grandes.


BCx1x6ABCx1x9

Me siento cómodo con la respuesta de Abhishek Anand porque, en última instancia, todo está correlacionado con todo lo demás hasta cierto punto. Y me gusta la forma en que lo compara en términos de significación estadística. Una vez que usa ese marco, es bastante obvio que si A y B están correlacionadas estadísticamente de manera significativa con C, A o B no necesariamente tienen una correlación estadísticamente significativa (usando el marco real de mi pregunta original). Creo que los diagramas de ventilación pueden ser una excelente explicación visual de ese concepto.
Sympa

@whuber Estoy de acuerdo contigo. Es sólo un ejemplo de muestra que explicar por qué no es necesario
Abhishek Anand

Está bien, pero parece tener una idea errónea sobre cuáles son las correlaciones entre estos vectores. Ninguna de las afirmaciones que hace sobre los coeficientes de correlación de estos vectores es generalmente correcta.
whuber
Al usar nuestro sitio, usted reconoce que ha leído y comprende nuestra Política de Cookies y Política de Privacidad.
Licensed under cc by-sa 3.0 with attribution required.