Tamaños de efectos de regresión lineal cuando se usan variables transformadas


9

Cuando se realiza una regresión lineal, a menudo es útil hacer una transformación como la transformación logarítmica para que la variable dependiente logre una mejor conformación de distribución normal. A menudo también es útil inspeccionar los beta de la regresión para evaluar mejor el tamaño del efecto / relevancia real de los resultados.

Esto plantea el problema de que cuando se usa, por ejemplo, la transformación logarítmica, los tamaños del efecto estarán en la escala logarítmica, y me han dicho que debido a la no linealidad de la escala utilizada, la transformación inversa de estos beta dará como resultado valores no significativos que no tiene ningún uso en el mundo real.

Hasta aquí, generalmente hemos realizado una regresión lineal con variables transformadas para inspeccionar el significado y luego una regresión lineal con las variables originales no transformadas para determinar el tamaño del efecto.

¿Hay una forma correcta / mejor de hacer esto? En su mayor parte, trabajamos con datos clínicos, por lo que un ejemplo de la vida real sería determinar cómo una determinada exposición afecta variables continuas como la altura, el peso o alguna medición de laboratorio, y nos gustaría concluir algo como "la exposición A tuvo el efecto de aumento de peso en 2 kg ".

Respuestas:


5

Sugeriría que las transformaciones no son importantes para obtener una distribución normal de sus errores. La normalidad no es una suposición necesaria. Si tiene datos "suficientes", el teorema del límite central se activa y sus estimaciones estándar se vuelven asintóticamente normales. Alternativamente, puede usar bootstrapping como un medio no paramétrico para estimar los errores estándar. (La homocedasticidad, una variación común para las observaciones entre unidades, es necesaria para que sus errores estándar sean correctos; las opciones robustas permiten la heterocedasticidad).

En cambio, las transformaciones ayudan a garantizar que un modelo lineal sea apropiado. Para dar una idea de esto, consideremos cómo podemos interpretar los coeficientes en los modelos transformados:

  • el resultado es unidades, los predictores son unidades: un cambio de una unidad en el predictor conduce a un cambio de unidad beta en el resultado.
  • resultado en unidades, predictor en unidades de registro: un cambio del uno por ciento en el predictor conduce a un cambio de unidad beta / 100 en el resultado.
  • resultado en unidades logarítmicas, predictor en unidades: un cambio de una unidad en el predictor conduce a un cambio beta x 100% en el resultado.
  • resultado en unidades logarítmicas, predictor en unidades logarítmicas: un cambio del uno por ciento en el predictor conduce a un cambio del porcentaje beta en el resultado.

Si las transformaciones son necesarias para que su modelo tenga sentido (es decir, para que se mantenga la linealidad), entonces la estimación de este modelo debe usarse para inferencia. Una estimación de un modelo que no crees no es muy útil. Las interpretaciones anteriores pueden ser bastante útiles para comprender las estimaciones de un modelo transformado y, a menudo, pueden ser más relevantes para la pregunta en cuestión. Por ejemplo, a los economistas les gusta la formulación log-log porque la interpretación de beta es una elasticidad, una medida importante en economía.

Agregaría que la transformación inversa no funciona porque la expectativa de una función no es la función de la expectativa; El registro del valor esperado de beta no es el valor esperado del registro de beta. Por lo tanto, su estimador no es imparcial. Esto también arroja errores estándar.


2

RESPUESTA CORTA: Absolutamente correcto, la transformación inversa del valor beta no tiene sentido. Sin embargo, puede informar la no linealidad como algo así. "Si pesa 100 kg, comer dos trozos de pastel al día aumentará su peso en aproximadamente 2 kg en una semana. Sin embargo, si pesa 200 kg, su peso aumentaría 2.5 kg. Consulte la figura 1 para ver una descripción de esta relación no lineal ( la figura 1 es un ajuste de la curva sobre los datos en bruto) ".

RESPUESTA LARGA:

El significado del valor transformado de nuevo varía, pero cuando se hace correctamente, generalmente tiene algún significado.

Si tiene una regresión de los valores de registro naturales en dos predictores x con una beta de 0.13 y una intersección de 7.0, entonces la transformación inversa de 0.13 (1.14) no tiene sentido. Eso es correcto. Sin embargo, la transformación inversa de 7.13 será un valor que puede interpretarse con algún significado. Luego puede restar la transformación hacia atrás de 7.0 y quedarse con un valor restante que es su efecto en una escala significativa (152.2). Si desea ver cualquier valor pronosticado, primero deberá calcularlo todo en valores de registro y luego volver a transformar. Esto debería hacerse por separado para cada valor predicho y dar como resultado una curva si se representa gráficamente.

Esto suele ser razonable si su transformación tiene un efecto relativamente pequeño en sus datos. La transformación logarítmica de los tiempos de reacción es un tipo de valor que puede transformarse nuevamente. Cuando se hace correctamente, encontrará que los valores parecen cercanos a los valores medianos haciendo cálculos simples en los datos sin procesar.

Aun así, uno debe tener cuidado con las interacciones y las no interacciones. Los valores relativos varían en la escala. El análisis fue sensible al valor de registro, mientras que los valores transformados hacia atrás pueden mostrar diferentes patrones que hacen que las interacciones parezcan que no deberían estar allí o viceversa. En otras palabras, puede volver a transformar las cosas que hacen pequeños cambios en los datos siempre que tenga cuidado.

Algunos cambios, como la transformación logística de la probabilidad, pueden tener impactos bastante masivos, especialmente cerca del final de la escala. Un ejemplo de un lugar en el que nunca debe volver a transformarse son las gráficas de interacción cerca del extremo alto o bajo de la probabilidad.


2

La pregunta es sobre los efectos marginales (de X sobre Y), creo, no tanto sobre la interpretación de los coeficientes individuales. Como la gente ha notado útilmente, estos a veces son identificables con un tamaño de efecto, por ejemplo, cuando hay relaciones lineales y aditivas.

Si ese es el enfoque, la forma más simple (conceptualmente, si no prácticamente) de pensar sobre el problema parece ser esta:

Para obtener el efecto marginal de X sobre Y en un modelo de regresión lineal normal sin interacciones, simplemente puede observar el coeficiente de X. Pero eso no es suficiente, ya que se estima que no se conoce. En cualquier caso, lo que uno realmente quiere para los efectos marginales es algún tipo de gráfico o resumen que proporcione una predicción sobre Y para un rango de valores de X y una medida de incertidumbre. Por lo general, uno podría desear la media pronosticada Y y un intervalo de confianza, pero también podría desear predicciones para la distribución condicional completa de Y para una X. Esa distribución es más amplia que la estimación sigma del modelo ajustado porque tiene en cuenta la incertidumbre sobre los coeficientes del modelo. .

Existen varias soluciones de forma cerrada para modelos simples como este. Para los propósitos actuales, podemos ignorarlos y pensar de manera más general acerca de cómo obtener ese gráfico de efectos marginales por simulación, de una manera que trate con modelos arbitrariamente complejos.

Suponga que desea los efectos de variar X en la media de Y, y está feliz de fijar todas las demás variables en algunos valores significativos. Para cada nuevo valor de X, tome una muestra de tamaño B de la distribución de coeficientes del modelo. Una manera fácil de hacerlo en R es suponer que es Normal con coef(model)matriz de media y covarianza vcov(model). Calcule una nueva Y esperada para cada conjunto de coeficientes y resuma el lote con un intervalo. Luego pase al siguiente valor de X.

Me parece que este método no debería verse afectado por ninguna transformación elegante aplicada a cualquiera de las variables, siempre que también las aplique (o sus inversas) en cada paso de muestreo. Entonces, si el modelo ajustado tiene log (X) como predictor, entonces registre su nueva X antes de multiplicarla por el coeficiente muestreado. Si el modelo ajustado tiene sqrt (Y) como variable dependiente, entonces cuadre cada media pronosticada en la muestra antes de resumirlas como un intervalo.

En resumen, más programación pero menos cálculo de probabilidad, y como resultado efectos marginales clínicamente comprensibles. Este "método" a veces se refiere a CLARIFICAR en la literatura de ciencias políticas, pero es bastante general.

Al usar nuestro sitio, usted reconoce que ha leído y comprende nuestra Política de Cookies y Política de Privacidad.
Licensed under cc by-sa 3.0 with attribution required.