Creo que la respuesta dada por @yshilov es definitivamente increíble al considerar el error de medición en el término de error y significativamente, deduce el resultado
β~= βσ2Xσ2X+σ2tu
Para elaborar, esta beta tiene propiedades especiales de que es un estimador sesgado, pero sesgado hacia 0. Específicamente, para regresión lineal,mi(β^1) =β1⋅ [σ2X+σx δσ2X+ 2σx δ+σ2δ]
La prueba es la siguiente: en regresión lineal simple, recordar
En el caso de error de medición, tenemos , , y , entonces obtenemos
Suponiendo que , , y la varianza del valor predictor verdadero
β^1=∑nortei = 1(Xyo-X¯)yyo∑nortei = 1(Xyo-X¯)2
XOyo=XUNAyo=δyoyOyo=yUNAyo+ϵyoyUNAyo=β0 0+β1XUNAyoyOyo=β0 0+β1(XOyo-δyo) +ϵyo=β0 0+β1XOyo+ (ϵyo-β1δyo)
mi(ϵyo) = E(δyo) = 0v a r (ϵyo) =σ2ϵv a r (δyo) =σ2δ=1norte∑nortei = 1(δyo-δ¯)2σ2X=∑ (XUNAyo-XUNA¯)2nortey correlación del verdadero predictor y error , luego
σx δ= c o v (XUNA, δ) =1norte∑nortei = 1(XUNAyo-XUNAyo¯) (δyo-δ¯)
c o v (XOyo, δ) = E(XOyoδ) - E(XOyo) ⋅ E( δ) = E(XOyoδ) = E[ (XUNAyo+ δ) δ] = E(XUNAyoδ) + E(δ2)
= [ E(XUNAyoδ) - E(XUNAyo) ⋅ E( δ) ] + [ v a r ( δ) + [ E( δ)]2] =cov(XUNAyo, δ) +σ2δ=σx δ+σ2δ
Entonces, mediante y la propiedad de bilinealidad en covarianza, la expectativa de es
X¯= E(Xyo)β^1mi(β^1) = E[∑nortei = 1(XOyo-X¯O)yOyo∑nortei = 1(XOyo-X¯O)2] =mi(∑nortei = 1XOyoyOyo) - E(∑nortei = 1X¯OyOyo)∑nortei = 1mi[ (XOyo- E(XOyo))2]=mi(∑nortei = 1XOyoyOyo) - E(XOyo) ⋅ E(∑nortei = 1yOyo)∑nortei = 1v a r (XOyo)
=∑nortei = 1c o v (yOyo,XOyo)∑nortei = 1v a r (XOyo)=∑nortei = 1c o v (β0 0+β1XOyo+ϵyo-β1δyo, XOyo)∑nortei = 1v a r (XOyo)=β1⋅∑nortei = 1v a r (XOyo) -β1⋅∑nortei = 1c o v (XOyo,δyo)∑nortei = 1v a r (XOyo)
=β1⋅ [ 1 -∑nortei = 1c o v (XOyo,δyo) / n∑nortei = 1v a r (XUNAyo+δyo) / n] =β1⋅ [ 1 -σx δ+σ2δσ2X+ 2 c o v (XUNAyo,δyo) +σ2δ] =β1⋅ [σ2X+σx δσ2X+ 2σx δ+σ2δ]
, según se desee. Por lo tanto, el resultado está bien establecido.
mi(β^1) =β1⋅ [σ2X+σx δσ2X+ 2σx δ+σ2δ]