¿Cuál es este compromiso de varianza sesgo para los coeficientes de regresión y cómo derivarlo?


9

En este artículo , ( Inferencia bayesiana para componentes de varianza usando solo contrastes de error , Harville, 1974), el autor afirma es un "bien conocido relación ", para una regresión lineal donde

(yXβ)H1(yXβ)=(yXβ^)H1(yXβ^)+(ββ^)(XH1X)(ββ^)
y=Xβ+ϵ,
ϵN(0,H).

¿Cómo se sabe esto? ¿Cuál es la forma más simple de probar esto?


1
Está en Wikipedia , ver 'derivación' allí.
user603

@ user603 ¿Le importaría aclarar el enlace? ¡Gracias!
Sibbs Gambling

@ user603 Lo siento, no puedo ver realmente cómo el enlace resuelve el problema. Para mí, en mi caso, la ecuación es Var (y) = sesgo + ... ¿Puedes explicarlo?
Sibbs Gambling

44
@SibbsGambling Tenga en cuenta que su ecuación tiene dos términos relacionados con la varianza en esta formulación de una regresión lineal ponderada . El término a la izquierda está relacionado con la varianza alrededor del modelo verdadero (ponderado por la matriz de precisión ). El primer término a la derecha está relacionado con la variación alrededor de los modelos ajustados. El segundo término a la derecha está relacionado con el cuadrado del sesgo. Esa es la compensación de sesgo de varianza. H1
EdM

Respuestas:


6

El último término en la ecuación se puede escribir como

(XβXβ^)H1(XβXβ^).

De esta forma, la ecuación dice algo interesante. Suponiendo que es positivo definido y simétrico, también lo es su inverso. Por lo tanto, podemos definir un producto interno , dándonos geometría. Entonces, la igualdad anterior esencialmente dice eso, H<x,y>H1=xH1y

(XβXβ^)(yXβ^).

Quería darte un poco de intuición ya que un comentarista ya ha dejado un enlace a la derivación.

Editar: para la posteridad

LHS:

(yXβ)H1(yXβ)=yH1y2yH1Xβ+βXH1Xβ=(A)(B)+(C)

RHS:

(yXβ^)H1(yXβ^)+(ββ^)(XH1X)(ββ^)
=yH1y2yH1Xβ^+β^XH1Xβ^+βXH1Xβ2β^XH1Xβ+β^XH1Xβ^=(A)(D)+(E)+(C)(F)+(E)

Relación:

β^=(XH1X)1XH1y

Al conectar la relación, puede mostrar que (B) = (F) y que 2 (E) = (D). Todo listo.


Lo siento, realmente no puedo ver cómo el enlace resuelve el problema. Para mí, en mi caso, la ecuación es Var (y) = sesgo + ... ¿Puedes explicarlo?
Sibbs Gambling

@SibbsGambling editó mi respuesta, incluida la derivación.
jlimahaverford

@jlimahaverford ¿no estás olvidando la al final de la fórmula para ? yβ^
Gumeo

7

Llegan a esta identidad mediante una técnica llamada completar el cuadrado. El lado izquierdo está en forma cuadrática, así que comienza multiplicándolo

(yXβ)H1(yXβ)=yH1y2yH1Xβ+βXH1Xβ

continúe y luego vuelva a escribir en términos de . El álgebra es algo largo, pero busca en Google completando el cuadrado en la regresión bayesiana y puedes encontrar muchas pistas. Por ejemplo, vea la wikipedia sobre regresión lineal bayesiana y otras respuestas CrossValided sobre cómo completar el cuadrado, como aquí . β^=(XH1X)1XH1y


2

Si conoces tu álgebra matricial, entonces esto debería ser posible multiplicando todo y verificando que realmente tienes lo mismo en ambos lados. Esto es lo que jlimahaverford ha demostrado.

Para poder hacer esto, necesita la fórmula para la estimación de . Podemos derivar la fórmula de manera similar a la regresión lineal cuando tenemos términos de error no correlacionados. El truco es estandarizar.β^

Aquí hay información sobre cómo estandarizar un RV que proviene de una distribución normal multivariante. Supongamos que tiene es definida positiva, por lo que puede factorizar como . Ahora la variable aleatoria proviene de la distribución . Ahora podemos usar este truco para nuestro problema para encontrar . Vamos factorize . Tenemos Now ha sido estandarizado, de modo que

XN(μ,Σ).
ΣΣ=PPT
Y=P1(Xμ)
N(0,I)β^H=PPT
y=Xβ+ϵP1y=P1Xβ+P1ϵ
ϵcov(P1ϵ)=I , por lo que ahora podemos tratar esto como un modelo simple de regresión lineal múltiple donde: Entonces tenemos el problema de regresión: La fórmula para es Esta es la clave para hacer esto, el resto es la manipulación algebraica demostrada en la solución por jlimahaverford.
X~=P1X,y~=P1yandϵ~=P1ϵ.
y~=X~β+ϵ~
β^
β^=(X~TX~)1X~Ty~=((P1X)TP1X)1(P1X)TP1y=(XT(PPT)1X)1X(PPT)1y=(XTH1X)1XH1y
Al usar nuestro sitio, usted reconoce que ha leído y comprende nuestra Política de Cookies y Política de Privacidad.
Licensed under cc by-sa 3.0 with attribution required.