¿Cómo explicas la diferencia entre riesgo relativo y riesgo absoluto?


12

El otro día tuve una consulta con un epidemiólogo. Ella es un MD con un título de salud pública en epidemiología y tiene muchos conocimientos estadísticos. Ella asesora a sus compañeros de investigación y residentes y los ayuda con cuestiones estadísticas. Ella entiende las pruebas de hipótesis bastante bien. Tenía un problema típico de comparar dos grupos para ver si había una diferencia en el riesgo relacionado con tener insuficiencia cardíaca congestiva (ICC). Ella probó la diferencia media en la proporción de sujetos que recibieron CHF. El valor p fue de 0.08. Luego también decidió mirar el riesgo relativo y obtuvo un valor p de 0.027. Entonces ella preguntó por qué uno es significativo y el otro no. Mirando el 95% de los intervalos de confianza de dos lados para la diferencia y la relación, vio que el intervalo de diferencia media contenía 0 pero el límite superior de confianza para la relación era menor que 1. Entonces, ¿por qué obtenemos resultados inconsistentes? Mi respuesta, aunque técnicamente correcta, no fue muy satisfactoria. Dije: "Estas son estadísticas diferentes y pueden dar resultados diferentes. Los valores p están en el área de importancia marginal. Esto puede suceder fácilmente". Creo que debe haber mejores formas de responder esto en términos simples a los médicos para ayudarlos a comprender la diferencia entre probar el riesgo relativo y el riesgo absoluto. En los estudios de epi, este problema surge mucho porque a menudo miran eventos raros en los que las tasas de incidencia para ambos grupos son muy pequeñas y los tamaños de muestra no son muy grandes. He pensado un poco en esto y tengo algunas ideas que compartiré. Pero primero me gustaría saber cómo algunos de ustedes manejarían esto. Sé que muchos de ustedes trabajan o consultan en el campo de la medicina y probablemente se han enfrentado a este problema. ¿Qué harías?


¿Los modelos incluyen otras covariables además del efecto de grupo?
parada el

@onestop Hay covariables que les interesa mirar, pero la prueba real solo estaba comparando el efecto principal. Si desea comentar, suponiendo que la prueba se basó en un modelo de regresión o evento, suponga que tuvimos tiempo para los datos del evento para ajustar un modelo de regresión de Cox, no dude en comentar. Me encantaría escuchar tus ideas. Mi pregunta se dirige al problema general y no solo al ejemplo específico.
Michael R. Chernick

Quiero decir, ¿la prueba que compara el efecto principal (grupal) se ajustó para covariables o no se ajustó? Si no está ajustado, entonces podría ser útil darnos la tabla 2 × 2, o una similar, para enfocar ideas.
parada el

Sin ajustar para estas pruebas particulares.
Michael R. Chernick

Respuestas:


7

Bueno, por lo que ya ha dicho, creo que tiene todo cubierto, pero solo necesita ponerlo en su idioma: uno es una diferencia de riesgos, uno es una relación. Entonces, una prueba de hipótesis pregunta si mientras que la otra pregunta si p 2p2p1=0. A veces estos son "cercanos" a veces no. (Cierre entre comillas porque claramente no están cerca en el sentido aritmético habitual). Si el riesgo es raro, estos suelen estar "muy separados". por ejemplo.002/.001=2(lejos de 1) mientras.002-.001=.001(cerca de 0); pero si el riesgo es alto, estos son "cercanos":.2/.1=2(lejos de 0) y.2-.1=.1(también lejos de 0, al menos en comparación con el caso raro.p2p1=1.002/.001=2.002.001=.001.2/.1=2.2.1=.1


2
Tienes una de mis ideas allí, cuando el número es pequeño, lo cual es común en el estudio de las bajas tasas de incidencia, las diferencias parecen pequeñas, pero las proporciones aún se ven grandes. Su ejemplo numérico es muy convincente. Estoy tentado de agregar algo sobre la estabilidad de las estimaciones bajo la hipótesis nula. Para algunos esto puede ser demasiado técnico, pero en su nivel de sofisticación quizás no. Suponga que las dos poblaciones tienen distribuciones nominales medias cero y varianza común conocida. Entonces, la diferencia normalizada es N (0,1) bajo la hipótesis nula, dando una estadística de prueba muy estable.
Michael R. Chernick

1
Pero bajo estos supuestos, la relación tiene una distribución de Cauchy y puede ser muy grande. Quizás este argumento necesita modificación ya que las tasas de incidencia tienen que ser positivas y posiblemente la distribución sea muy sesgada. Supongo que lo que quiero es un ejemplo que muestre que la diferencia tiene una distribución muy estable y la relación no, especialmente porque el tamaño de la muestra es pequeño y el denominador puede acercarse mucho a 0. ¿Alguien tiene un buen ejemplo ilustrativo?
Michael R. Chernick

@Peter ¿Querías escribir tres s no dos? Si es así, ¿podrías definir tu notación? pi
parada el

Creo que se refería a p1 cuando escribió p0. Solo un error básico. Tener tres ps en este contexto no tiene sentido.
Michael R. Chernick

1
Hice el cambio por Peter. ¡Grítame si hice algo mal!
Michael R. Chernick

6

Tenga en cuenta que en ambas pruebas, prueba una hipótesis completamente diferente con diferentes supuestos. Los resultados no son comparables, y ese es un error demasiado común.

En riesgo absoluto, usted prueba si la diferencia (promedio) en proporción difiere significativamente de cero. La hipótesis subyacente en la prueba estándar para esto supone que las diferencias de proporción se distribuyen normalmente. Esto podría ser válido para pequeñas proporciones, pero no para grandes. Técnicamente calcula la siguiente probabilidad condicional:

P(p1p2=0|X)

p1p2Xb

p=a+bX+ϵ

ϵN(0,σ)

X

P(log(p1p2)=0|X)

que es equivalente a probar la pendiente en el siguiente modelo logístico:

log(p1p)=a+bX+ϵ

log(p1p)

La razón por la que esto hace la diferencia se da en la respuesta de Peter Flom: una pequeña diferencia en los riesgos absolutos puede generar un gran valor para las probabilidades. Entonces, en su caso, significa que la proporción de personas que contraen la enfermedad no difiere sustancialmente, pero las probabilidades de estar en un grupo son significativamente mayores que las probabilidades de estar en el otro grupo. Eso es perfectamente sensato.


1
Creo que hasta ahora todos estamos de acuerdo en que la razón principal del problema es que pequeñas diferencias en el riesgo absoluto pueden conducir a grandes diferencias en el riesgo relativo. Después de todo .2 a.1 tiene el mismo riesgo relativo que 0.0002 a 0.0001. Creo que este es el mensaje que podemos llevar a casa para el laico. Su explicación es excelente para los estadísticos, pero no estoy seguro de que sea entendida fácilmente por un laico y uno podría decir "Entonces, ¿qué pasa si está probando una hipótesis diferente?
Michael R. Chernick

Todavía está tratando de determinar dónde o no las tasas son diferentes. Entonces, aunque las hipótesis son diferentes, los resultados deben ser consistentes. Después de todo, p1-p2 = 0 es lo mismo que p1 / p2 = 1. "Así que creo que el hecho de que las hipótesis son diferentes pierde el punto y no es una explicación satisfactoria.
Michael R. Chernick

@MichaelChernick Estaba a punto de decir que las diferencias de proporción son condicionales y la razón de probabilidades no lo es. Pero ese no es el caso, ambos dan exactamente el mismo resultado después de transponer la tabla (en el caso de una tabla 2X2). He estado ejecutando algunas simulaciones, pero no puedo forzar los valores de p prop.test(o chisq.testcomo es equivalente en el caso de 2x2) y fisher.testestar a más de 0.005 de distancia. Así que me pregunto qué pruebas usó ...
Joris Meys

Sería chi cuadrado o prueba de Fisher. Probablemente la prueba de Fisher porque sabe en pequeñas muestras que la aproximación de chi cuadrado no es buena. Cuando hago estadísticas para ellos, uso SAS. Ella hizo su trabajo usando STATA. Probablemente pueda desenterrar la tabla real.
Michael R. Chernick

2
log(p1p0)=log(p1)log(p0)p1p0
Al usar nuestro sitio, usted reconoce que ha leído y comprende nuestra Política de Cookies y Política de Privacidad.
Licensed under cc by-sa 3.0 with attribution required.