Bueno, hay un método ad hoc que he usado antes. No estoy seguro de si este procedimiento tiene un nombre, pero tiene sentido intuitivamente.
Supongamos que su objetivo es adaptarse al modelo
Yyo= β0 0+ β1Xyo+ β2Zyo+ εyo
donde los dos predictores - - están altamente correlacionados. Como ha señalado, usarlos en el mismo modelo puede hacer cosas extrañas en las estimaciones de coeficientes y los valores p . Una alternativa es ajustar el modelo.Xyo, Zyopag
Zyo= α0 0+ α1Xyo+ ηyo
Entonces el residual no estará correlacionado con X i y, en cierto sentido, puede considerarse como la parte de Z i que no está subsumida por su relación lineal con X i . Luego, puede proceder a ajustar el modeloηyoXyoZyoXyo
Yyo= θ0 0+ θ1Xyo+ θ2ηyo+ νyo
que capturará todos los efectos del primer modelo (y tendrá, de hecho, exactamente el mismo que el primer modelo) pero los predictores ya no son colineales.R2
Editar: El OP ha pedido una explicación de por qué los residuos no tienen, por definición, una correlación de muestra de cero con el predictor cuando se omite la intersección, como lo hacen cuando se incluye la intersección. Esto es demasiado largo para publicar en los comentarios, así que hice una edición aquí. Esta derivación no es particularmente esclarecedora (desafortunadamente no pude encontrar un argumento intuitivo razonable) pero muestra lo que solicitó el OP :
Cuando el punto de intersección se omite en la regresión lineal simple , β = Σ x i y i , entoncesei=yi-xi∑xiyiβ^= ∑ xyoyyo∑ x2yo . La correlación muestral entrexiyeies proporcional a ¯ x e - ¯ x ¯ e donde ¯ ⋅ denota la media muestral de la cantidad debajo de la barra. Ahora mostraré que esto no es necesariamente igual a cero.miyo= yyo- xyo∑ xyoyyo∑ x2yoXyomiyo
x e¯¯¯¯¯- x¯¯¯mi¯¯¯
⋅¯
Primero tenemos
x e¯¯¯¯¯= 1norte( ∑ xyoyyo- x2yo⋅ ∑ xyoyyo∑ x2yo) = x y¯¯¯¯¯( 1 - ∑ x2yo∑ x2yo) =0
pero
X¯¯¯mi¯¯¯= x¯¯¯( y¯¯¯- x¯¯¯⋅ x y¯¯¯¯¯X2¯¯¯¯¯) = x¯¯¯y¯¯¯- x¯¯¯2⋅ x y¯¯¯¯¯X2¯¯¯¯¯
miyoXyoX¯¯¯mi¯¯¯0 0
y¯¯¯= x¯¯¯⋅ x y¯¯¯¯¯X2¯¯¯¯¯
x , y