¿Cuándo es inapropiado controlar una variable?


15

Puedo pensar en al menos un ejemplo ingenuo. Supongamos que quiero estudiar la relación entre X y Z. También sospecho que Y influye en Z, así que controlo para Y. Sin embargo, resulta que, sin que yo lo sepa, X causa Y e Y causa Z. Por lo tanto, controlando para Y, "encubro" la relación entre X y Z, ya que X es independiente de Z dado Y.

Ahora, en el ejemplo anterior, puede darse el caso de que las relaciones que debería estar estudiando son las que existen entre X e Y, e Y y Z. Sin embargo, si supiera esas cosas a priori, no estaría haciendo ciencia en El primer lugar. El estudio que hice ahora sugiere que no hay una relación entre X y Z, que no es el caso ... X y Z están relacionados.

Esto se ilustra en el siguiente diagrama de dependencia. En el escenario correcto, Z depende de X e Y y X e Y son independientes. Controlamos correctamente que Y determine la relación entre X y Z. En el escenario de la izquierda, Z depende de Y, que depende de X. X y Z son independientes dado Y, por lo que la relación entre X y Z se "cubre" al controlar Y.

relaciones variables

Mi pregunta es básicamente "¿Cuándo es apropiado controlar la variable Y y cuándo no?" ... Puede ser difícil o imposible investigar completamente la relación entre X e Y, pero, por ejemplo, controlar Y en un nivel dado es una opción. ¿Cómo decidimos antes de realizar nuestro estudio, y cuáles son las trampas comunes de controlar demasiado o muy poco?

Citas apreciadas.


77
Para dar un ejemplo, su situación exacta surge al evaluar el impacto de la discriminación racial. Deje ser raza. DejarX sea ​​salario. Que Y sea ​​educación. Claramente, la educación afecta los salarios, por lo que querrá controlar eso, PERO si la discriminación racial hace que una minoría racial reciba una educación peor que el control de la educación cubriría esa discriminación. P.ej. verNeal y Johnson (1996). Como señala la respuesta de Alexis, debe profundizar en los detalles de su problema. No hay un simple botón para presionar que resuelva todo. ZY
Matthew Gunn el

1
No tenía esperanzas de un simple botón para presionar. De hecho, me habría decepcionado bastante si mi pregunta hubiera resultado tener una respuesta trivial. :)
Scott

1
@Repmat Sí. Sin embargo, los 4 supuestos de la estimación IV rara vez se cumplen, e incluso cuando lo son, la fuerza de las asociaciones involucradas puede hacer que la estimación IV dé resultados sesgados. Véase, por ejemplo, Estimación causal de Hernán y Robins (cita completa y enlace en mi respuesta), capítulo 16: Estimación de variables instrumentales.
Alexis

1
@Alexis Naturalmente, los IV son difíciles de conseguir ... "Sin almuerzo gratis" y todo, sin embargo, cuando lo haga, a menudo lo sabrá con poca o ninguna duda.
Repmat

1
@Repmat ... los supuestos para las estimaciones IV válidas requieren más que el DAG en la foto ... realmente son bastante frágiles.
Alexis

Respuestas:


7

El condicionamiento (es decir, el ajuste) de las probabilidades de algún resultado dado algún predictor en terceras variables se practica ampliamente, pero como usted señala correctamente, en realidad puede introducir sesgo en la estimación resultante como una representación de los efectos causales . Esto puede suceder incluso con definiciones "clásicas" de un posible factor de confusión causal, porque tanto el factor de confusión en sí mismo como el predictor de interés pueden tener más factores de confusión causales aguas arriba. En el DAG a continuación, por ejemplo, es un factor de confusión clásico del efecto causal de E sobre D , porque (1) causa y, por lo tanto, está asociado con E , y (2) está asociado con D, ya que está asociado conLEDED que está asociado con D . Sin embargo, ya sea condicionando o estratificando P ( DU2D en L (un "colisionador") producirá estimaciones causales sesgadas del efecto de E en D porque L está confundido con D por la variable no medida U 2 , y L está confundido con EP(D|E)LEDLDU2LE por la variable no medida .U1

DAG

La comprensión de qué variables condicionar o estratificar el análisis para proporcionar una estimación causal imparcial requiere una cuidadosa consideración de los posibles DAG utilizando los criterios para la identificación del efecto causal (no hay causas comunes que no estén bloqueadas por los caminos de puerta trasera) descritos por Pearl, Robins y otros. . No hay atajos. Aprende patrones comunes de confusión. Aprenda patrones de sesgo de selección comunes. Práctica.

Referencias

Groenlandia, S., Pearl, J. y Robins, JM (1999). Diagramas causales para la investigación epidemiológica . Epidemiología , 10 (1): 37–48.

Hernán, MA y Robins, JM (2018). Inferencia causal . Chapman & Hall / CRC, Boca Ratón, FL

Maldonado, G. y Groenlandia, S. (2002). Estimación de efectos causales . Revista Internacional de Epidemiología , 31 (2): 422–438.

Pearl, J. (2000). Causalidad: modelos, razonamiento e inferencia . Prensa de la Universidad de Cambridge.


12

Creo que la respuesta rápida de una oración a tu pregunta,

¿Cuándo es apropiado controlar la variable Y y cuándo no?

es el "criterio de puerta trasera".

El modelo causal estructural de Judea Pearl puede decirle definitivamente qué variables son suficientes (y cuando es necesario) para el condicionamiento, para inferir el impacto causal de una variable en otra. A saber, esto se responde utilizando el criterio de puerta trasera, que se describe en la página 19 de este artículo de revisión de Pearl.

La advertencia principal es que requiere que se conozca la relación causal entre las variables (en forma de flechas direccionales en un gráfico). No hay forma de evitar eso. Aquí es donde la dificultad y la posible subjetividad pueden entrar en juego. El modelo causal estructural de Pearl solo le permite saber cómo responder las preguntas correctas dado un modelo causal (es decir, un gráfico dirigido), qué conjunto de modelos causales son posibles dada una distribución de datos, o cómo buscar la estructura causal realizando el experimento correcto. No le dice cómo encontrar la estructura causal correcta dada solo la distribución de datos. De hecho, afirma que esto es imposible sin el uso de conocimiento / intuición externa sobre el significado de las variables.

Los criterios de la puerta trasera se pueden establecer de la siguiente manera:

Para encontrar el impacto causal de en Y , un conjunto de nodos variables S es suficiente para condicionarse siempre que cumpla los dos criterios siguientes:XY,S

1) Ningún elemento en es descendiente de XSX

2) bloquea todos los caminos de "puerta trasera" entre X e YSXY

Aquí, un camino "puerta trasera" es simplemente un camino de flechas que comienzan en y final con una flecha apuntando a X . (La dirección que señalan todas las demás flechas no es importante). Y el "bloqueo" es, en sí mismo, un criterio que tiene un significado específico, que se da en la página 11 del enlace anterior. Este es el mismo criterio que leerías al aprender sobre la "separación D". Personalmente, encontré que el capítulo 8 de Bishop's Pattern Recognition and Machine Learning describe el concepto de bloqueo en la separación D mucho mejor que la fuente de Pearl que he vinculado anteriormente. Pero es así:YX.

Un conjunto de nodos, bloquea una ruta entre X e Y si cumple al menos uno de los siguientes criterios:S,XY

1) Uno de los nodos en la ruta, que también está en emite al menos una flecha en la ruta (es decir, la flecha apunta hacia afuera del nodo)S,

2) Un nodo que no está ni en ni un ancestro de un nodo en SSS tiene dos flechas en el camino "colisionando" hacia él (es decir, encontrándose cara a cara)

Este es un criterio o , a diferencia del criterio general de puerta trasera que es un y criterio .

Para tener claridad sobre el criterio de puerta trasera, lo que le dice es que, para un modelo causal dado, al condicionar una variable suficiente, puede aprender el impacto causal de la distribución de probabilidad de los datos. (Como sabemos, la distribución conjunta por sí sola no es suficiente para encontrar el comportamiento causal porque las estructuras causales múltiples pueden ser responsables de la misma distribución. Es por eso que también se requiere el modelo causal). métodos de aprendizaje automático en los datos de observación. Así que siempre que lo sepas que la estructura causal permite condicionar una variable (o un conjunto de variables), su estimación del impacto causal de una variable en otra es tan buena como su estimación de la distribución de los datos, que obtiene a través de métodos estadísticos.

Esto es lo que encontramos cuando aplicamos el criterio de puerta trasera a sus dos diagramas:

ZX.YYX,Y

YXZXYYYZ.YY.X.YYYXY

YYXZ.

Is it sufficient to control for $Y$ to find the causal impact of $X$ on $Z$?

YX.ZX.

ZYXZWBAX. YY B,B,YZYX

ZWBYX. Y ZYXZWBAX,B.

YAWXZB.XZB,BAWBAWXZ

Como mencioné antes, el uso del criterio de puerta trasera requiere que conozca el modelo causal (es decir, el diagrama "correcto" de flechas entre las variables). Pero el Modelo causal estructural, en mi opinión, también ofrece la mejor y más formal forma de buscar dicho modelo, o saber cuándo la búsqueda es inútil. También tiene el maravilloso efecto secundario de hacer obsoletos términos como "confusión", "mediación" y "espurio" (todo lo cual me confunde). Solo muéstrame la imagen y te diré qué círculos deben controlarse.


3
Agradable. Estaba debatiendo si agregar Causalidad de Pearl a la sección de referencias de mi respuesta ... y ahora lo he hecho. :)
Alexis

0

Lo siguiente podría o no ser apropiado para su caso: si se Xtrata de un tratamiento, entonces podría solucionar su problema utilizando una coincidencia de puntaje de propensión en la que aún mantendría la variable Ycuando haga la coincidencia. En otras palabras, equilibra las covariables ( Yes una de esas covariables) que predicen recibir el tratamiento X.
Observe cómo no hay referencia a la variable de resultado Zen lo anterior. También puede verificar qué tan equilibradas están sus observaciones (generando una tabla de equilibrio de antes y después), lo que podría darle una idea de cuánto Xestá determinado por Y.

Al usar nuestro sitio, usted reconoce que ha leído y comprende nuestra Política de Cookies y Política de Privacidad.
Licensed under cc by-sa 3.0 with attribution required.