Una estimación de parámetros en un modelo de regresión (por ) cambiará si una variable, X j , se añade al modelo que es: β^iXj
- correlacionado con la variable correspondiente de ese parámetro, (que ya estaba en el modelo), yXi
- correlacionado con la variable de respuesta, Y
Una beta estimada no cambiará cuando se agregue una nueva variable, si alguna de las anteriores no está correlacionada. Tenga en cuenta que si no están correlacionados en la población (es decir, , o ρ ( X j , Y ) = 0 ) es irrelevante. Lo que importa es que ambas correlaciones de muestra son exactamente 0 . Esencialmente, este nunca será el caso en la práctica a menos que esté trabajando con datos experimentales donde las variables fueron manipuladas de modo que no estén correlacionadas por diseño. ρ(Xi,Xj)=0 ρ(Xj,Y)=00
Tenga en cuenta también que la cantidad que cambian los parámetros puede no ser terriblemente significativa (eso depende, al menos en parte, de su teoría). Además, la cantidad que pueden cambiar es una función de las magnitudes de las dos correlaciones anteriores.
En una nota diferente, no es realmente correcto pensar en este fenómeno como "el coeficiente de una variable dada [siendo] influenciado por el coeficiente de otra variable". No son las betas las que se influencian entre sí. Este fenómeno es un resultado natural del algoritmo que utiliza el software estadístico para estimar los parámetros de la pendiente. Imagine una situación en la que es causada por X i y X j , que a su vez están correlacionadas entre sí. Si solo X i está en el modelo, parte de la variación en Y que se debe a X j se atribuirá inapropiadamente a X iYXiXjXiYXjXi. Esto significa que el valor de está sesgado; esto se llama sesgo variable omitido . Xi
multivariable
Quiere decir con múltiples variables independientes ("regresión múltiple") o múltiples variables dependientes ("regresión multivariada" o "MAN (C) OVA")?