¿La independencia estadística significa falta de causalidad?


40

Dos variables aleatorias A y B son estadísticamente independientes. Eso significa que en el DAG del proceso: y, por supuesto, . ¿Pero eso también significa que no hay puerta de entrada de B a A?P ( A | B ) = P ( A )(AB)P(A|B)=P(A)

Porque entonces deberíamos obtener . Entonces, si ese es el caso, ¿la independencia estadística significa automáticamente falta de causalidad?P(A|do(B))=P(A)

Respuestas:


37

Entonces, si ese es el caso, ¿la independencia estadística significa automáticamente falta de causalidad?

No, y aquí hay un contraejemplo simple con una normal multivariada,

set.seed(100)
n <- 1e6
a <- 0.2
b <- 0.1
c <- 0.5
z <- rnorm(n)
x <- a*z + sqrt(1-a^2)*rnorm(n)
y <- b*x - c*z + sqrt(1- b^2 - c^2 +2*a*b*c)*rnorm(n)
cor(x, y)

Con el gráfico correspondiente,

ingrese la descripción de la imagen aquí

Aquí tenemos que e son marginalmente independientes (en el caso normal multivariante, la correlación cero implica independencia). Esto ocurre porque la ruta de puerta trasera a través de cancela exactamente el camino directo desde a , que es, . Así . Sin embargo, causa directamente , y tenemos que , que es diferente de .y z x y c o v ( x , y ) = b - a c = 0.1 - 0.1 = 0 E [ Y | X = x ] = E [ Y ] = 0 x y E [ Y | d o ( X = x ) ] = b x E [ Y ]xyzxycov(x,y)=bac=0.10.1=0E[Y|X=x]=E[Y]=0xyE[Y|do(X=x)]=bxE[Y]=0

Asociaciones, intervenciones y contrafactuales.

Creo que es importante hacer algunas aclaraciones aquí con respecto a asociaciones, intervenciones y contrafactuals.

Los modelos causales implican declaraciones sobre el comportamiento del sistema: (i) bajo observaciones pasivas, (ii) bajo intervenciones, así como (iii) contrafácticos. Y la independencia en un nivel no necesariamente se traduce en el otro.

Como muestra el ejemplo anterior, no podemos tener asociación entre e Y , es decir, P ( Y | X ) = P ( Y ) , y aun así el hecho de que las manipulaciones en X cambien la distribución de Y , es decir, P ( Y | d o ( x ) ) P ( Y ) .XYP(Y|X)=P(Y)XYP(Y|do(x))P(Y)

Ahora, podemos ir un paso más allá. ¡Podemos tener modelos causales en los que intervenir en no cambia la distribución de la población de Y , pero eso no significa falta de causalidad contrafáctica! Es decir, a pesar de que P ( Y | d o ( x ) ) = P ( Y ) , para cada individuo su resultado Y habría sido diferente si se cambió de X . Este es precisamente el caso descrito por user20160, así como en mi respuesta anterior aquí.XYP(Y|do(x))=P(Y)YX

Estos tres niveles forman una jerarquía de tareas de inferencia causal , en términos de la información necesaria para responder consultas sobre cada una de ellas.


1
Gracias, eso es exactamente lo que estaba buscando. Así que supongo que mi confusión fue causada (sin juego de palabras) al pensar que la independencia estadística también significa separación D entre las dos variables. Pero solo funciona al revés, ¿correcto?
user1834069

@ user1834069 es cierto, la separación d implica independencia, pero la independencia no implica separación d. Estos dos son ejemplos en los que la distribución es infiel al gráfico, y puede ver que depende de la elección de la parametrización. Si cambiamos los parámetros, la dependencia vuelve a aparecer.
Carlos Cinelli

Buen ejemplo Si no recuerdo mal, este es uno de los supuestos no comprobables de minería de datos causales de minería de datos de observación. Para los modelos lineales en SEM, el libro de Pearl también menciona que el conjunto de coeficientes que dan como resultado una distribución infiel es de medida 0.
Vimal

37

Supongamos que tenemos una bombilla controlada por dos interruptores. Supongamos que y S 2 denotan el estado de los interruptores, que pueden ser 0 o 1. Supongamos que L denota el estado de la bombilla, que puede ser 0 (apagado) o 1 (encendido). Configuramos el circuito de modo que la bombilla esté encendida cuando los dos interruptores estén en diferentes estados y apagada cuando estén en el mismo estado. Entonces, el circuito implementa la exclusiva o función: L = XOR ( S 1 , S 2 ) .S1S2LL=XOR(S1,S2)

Por construcción, está causalmente relacionado con S 1 y S 2 . Dada cualquier configuración del sistema, si activamos un interruptor, el estado de la bombilla cambiará.LS1S2

Ahora, suponga que ambos interruptores se accionan independientemente de acuerdo con un proceso de Bernoulli, donde la probabilidad de estar en el estado 1 es 0.5. Entonces, , y S 1 y S 2 son independientes. En este caso, sabemos por el diseño del circuito que P ( L = 1 ) = 0.5 y, además, p ( L S 1 ) = pp(S1=1)=p(S2=1)=0.5S1S2P(L=1)=0.5 . Es decir, saber el estado de un interruptor no nos dice nada acerca de si la bombilla estará encendida o apagada. Entonces L y S 1 son independientes, como lo son L y S 2 .p(LS1)=p(LS2)=p(L)LS1LS2

Pero, como anteriormente, está causalmente relacionado con S 1 y S 2 . Entonces, la independencia estadística no implica falta de causalidad.LS1S2


2
P(L|do(S1))=P(L)

p(L|S1,S2)p(L)(vL,v1,v2){0,1}3p(L=vL|S1=v1)=p(L=vL|S2=v2)=0.5 p(L=vL|S1=v1,S2=v2){0,1}

0

Según su pregunta, puede pensar así:

P(AB)=P(A)P(B)AB

P(AB)/P(A)=P(B|A)=P(B)

P(AB)/P(B)=P(A|B)=P(A)

En este sentido, creo que la independencia significa una falta de causalidad. Sin embargo, la dependencia no necesariamente implica causalidad.


2
P(AB)=P(A)P(B)P(A|do(B))=P(A)
Al usar nuestro sitio, usted reconoce que ha leído y comprende nuestra Política de Cookies y Política de Privacidad.
Licensed under cc by-sa 3.0 with attribution required.