Preguntas etiquetadas con multicollinearity

Situación cuando existe una fuerte relación lineal entre las variables predictoras, de modo que su matriz de correlación se vuelve (casi) singular. Esta "mala condición" hace que sea difícil determinar el papel único que desempeña cada uno de los predictores: surgen problemas de estimación y aumentan los errores estándar. Los predictores correlacionados bivariablemente muy altos son un ejemplo de multicolinealidad.

1
Estandarización de variables y colinealidad.
La colinealidad puede plantear ciertos problemas en varios tipos de problemas de regresión. En particular, puede hacer que las estimaciones de los parámetros tengan una alta varianza y sean inestables. Se han propuesto varios métodos para tratar esto, incluida la regresión de crestas, la regresión de mínimos cuadrados parciales, la …


4
¿Cómo interpreto una curva de supervivencia del modelo de riesgo de Cox?
¿Cómo interpreta una curva de supervivencia del modelo de riesgo proporcional de Cox? En este ejemplo de juguete, supongamos que tenemos un modelo de riesgo proporcional de Cox ageen kidneydatos variables y generamos la curva de supervivencia. library(survival) fit <- coxph(Surv(time, status)~age, data=kidney) plot(conf.int="none", survfit(fit)) grid() Por ejemplo, en el …

1
Puede estandarizada
Estoy tratando de interpretar los resultados de un artículo, donde aplicaron regresión múltiple para predecir varios resultados. Sin embargo, los ββ\beta '(coeficientes B estandarizados definidos como βx1=Bx1⋅SDx1SDyβX1=siX1⋅SreX1Srey\beta_{x_1} = B_{x_1} \cdot \frac{\mathrm{SD}_{x_1}}{\mathrm{SD}_y} dondees la variable dependiente yes un predictor) informado no parece coincidir con elinformado:x 1 R 2yyyx1X1x_1R2R2R^2 A pesar de …


1
Término de interacción utilizando variables centradas análisis de regresión jerárquica? ¿Qué variables debemos centrar?
Estoy ejecutando un análisis de regresión jerárquica y tengo algunas dudas: ¿Calculamos el término de interacción usando las variables centradas? ¿Tenemos que centrar TODAS las variables continuas que tenemos en el conjunto de datos, excepto la variable dependiente? Cuando tenemos que registrar algunas variables (porque su sd es mucho más …

3
Cambio de signo al agregar una variable más en regresión y con una magnitud mucho mayor
Configuración básica: modelo de regresión: donde C es el vector de las variables de control.y=constant+β1x1+β2x2+β3x3+β4x4+αC+ϵy=constant+β1x1+β2x2+β3x3+β4x4+αC+ϵy = \text{constant} +\beta_1x_1+\beta_2x_2+\beta_3x_3+\beta_4x_4+\alpha C+\epsilon Estoy interesado en y espero que y sean negativos. Sin embargo, hay un problema de multicolinealidad en el modelo, el coeficiente de correlación viene dado por, corr ( , 0.9345, corr …



2
Evaluación de la multicolinealidad de las variables predictoras dicotómicas
Estoy trabajando en un proyecto donde observamos el comportamiento en una tarea (por ejemplo, tiempo de respuesta) y modelamos este comportamiento en función de varias variables manipuladas experimentalmente, así como varias variables observadas (sexo del participante, coeficiente intelectual del participante, respuestas en un seguimiento) cuestionario). No me preocupa la multicolinealidad …
Al usar nuestro sitio, usted reconoce que ha leído y comprende nuestra Política de Cookies y Política de Privacidad.
Licensed under cc by-sa 3.0 with attribution required.