Mostraré el resultado para cualquier regresión lineal múltiple, ya sea que los regresores sean polinomios de o no. De hecho, muestra un poco más de lo que solicitó, porque muestra que cada residuo de LOOCV es idéntico al residual ponderado por apalancamiento correspondiente de la regresión completa, no solo que puede obtener el error de LOOCV como en (5.2) (hay podrían ser otras formas en que los promedios están de acuerdo, incluso si no cada término en el promedio es el mismo).Xt
Permítanme tomar la libertad de usar notación ligeramente adaptada.
Se demuestra en primer lugar que
β
donde β es la estimación utilizando todos los datos y β (t)la estimación cuando dejando deX(t), la observaciónt. DejeXtser definido como un vector fila de tal manera que y t=Xt β . U tson los residuos.
β^−β^(t)=(u^t1−ht)(X′X)−1X′t,(A)
β^β^(t)X(t)tXty^t=Xtβ^u^t
La prueba utiliza el siguiente resultado algebraico matricial.
Sea una matriz no singular, b un vector y λ un escalar. Si
λAbλ Entonces
(A+λbb′)-1
λ≠−1b′A−1b
(A+λbb′)−1=A−1−(λ1+λb′A−1b)A−1bb′A−1(B)
{A−1−(λ1+λb′A−1b)A−1bb′A−1}(A+λbb′)=I.
El siguiente resultado es útil para probar (A)
(X′(t)X(t))−1X′t=(11−ht)(X′X)−1X′t. (C)
∑Tt=1X′tXt=X′X
(X′(t)X(t))−1=(X′X−X′tXt)−1=(X′X)−1+(X′X)−1X′tXt(X′X)−11−Xt(X′X)−1X′t.
So we find
(X′(t)X(t))−1X′t=(X′X)−1X′t+(X′X)−1X′t(Xt(X′X)−1X′t1−Xt(X′X)−1X′t)=(11−ht)(X′X)−1X′t.
The proof of (A) now follows from (C): As
X′Xβ^=X′y,
we have
(X′(t)X(t)+X′tXt)β^=X′(t)y(t)+X′tyt,
or
{Ik+(X′(t)X(t))−1X′tXt}β^=β^(t)+(X′(t)X(t))−1X′t(Xtβ^+u^t).
So,
β^=β^(t)+(X′(t)X(t))−1X′tu^t=β^(t)+(X′X)−1X′tu^t1−ht,
where the last equality follows from (C).
Now, note ht=Xt(X′X)−1X′t. Multiply through in (A) by Xt, add yt on both sides and rearrange to get, with u^(t) the residuals resulting from using β^(t) (yt−Xtβ^(t)),
u^(t)=u^t+(u^t1−ht)ht
or
u^(t)=u^t(1−ht)+u^tht1−ht=u^t1−ht