¿Bajo exactamente qué condiciones la regresión de cresta puede proporcionar una mejora sobre la regresión de mínimos cuadrados ordinarios?


16

La regresión de cresta estima los parámetros β en un modelo lineal by dondeß λ = ( XX + λ I ) - 1 Xy , λy=Xβ

β^λ=(XX+λI)1Xy,
λ es un parámetro de regularización. Es bien sabido que a menudo funciona mejor que la regresión OLS (con ) cuando hay muchos predictores correlacionados.λ=0

Un teorema de existencia para la regresión de crestas dice que siempre existe un parámetro tal que el error cuadrático medio de es estrictamente más pequeño que el error cuadrático medio de la MCO estimación . En otras palabras, un valor óptimo de siempre es distinto de cero. Aparentemente, esto se demostró por primera vez en Hoerl y Kennard, 1970, y se repite en muchas notas de conferencias que encuentro en línea (por ejemplo, aquí y aquí ). Mi pregunta es sobre los supuestos de este teorema:β λ β O L S = β 0 λλ>0β^λβ^OLS=β^0λ

  1. ¿Hay alguna suposición sobre la matriz de covarianza ?XX

  2. ¿Hay alguna suposición sobre la dimensionalidad deX ?

En particular, ¿el teorema sigue siendo cierto si los predictores son ortogonales (es decir, es diagonal), o incluso si \ mathbf X ^ \ top \ mathbf X = \ mathbf I ? ¿Y sigue siendo cierto si solo hay uno o dos predictores (por ejemplo, un predictor y una intercepción)?XX = IXXXX=I

Si el teorema no hace tales suposiciones y sigue siendo cierto incluso en estos casos, entonces ¿por qué la regresión de cresta generalmente se recomienda solo en el caso de predictores correlacionados, y nunca (?) Se recomienda para una regresión simple (es decir, no múltiple)?


Esto está relacionado con mi pregunta sobre la visión unificada sobre la contracción: ¿cuál es la relación (si la hay) entre la paradoja de Stein, la regresión de cresta y los efectos aleatorios en modelos mixtos? , pero no hay respuestas que aclaren este punto hasta ahora.


1
Parece que todas menos la última pregunta se abordan directamente en el documento de Hoerl & Kennard, especialmente en la primera oración de la Introducción y la primera oración de las Conclusiones. La última pregunta puede responderse observando que la covarianza entre un vector constante y cualquier predictor único siempre es cero, lo que permite que uno (de manera estándar) reduzca a una matriz 1 × 1 . XX1×1
whuber

1
Gracias, @whuber. Creo que el artículo de Hoerl & Kennard responde mis preguntas (al menos las técnicas): uno debería poder seguir la prueba y verificar las suposiciones (aún no lo he hecho). Pero no estoy completamente convencido por las oraciones a las que te refieres. ¿Cómo se relaciona la primera oración de la Introducción con mi pregunta? La primera oración de las Conclusiones sugiere que si tiene un espectro uniforme (por ejemplo, es igual a I ), entonces el teorema no se aplica. Pero no estoy 100% seguro, ya que no veo esta suposición explícitamente antes de la prueba. XXI
ameba dice Reinstate Monica

Mire qué tipo de preguntas pueden hacer los usuarios de alta reputación (que generalmente solo las responden ) (y también para su otra pregunta vinculada que me envió aquí stats.stackexchange.com/questions/122062/… !
javadba

Respuestas:


11

La respuesta a ambos 1 y 2 es no, pero se necesita cuidado al interpretar el teorema de la existencia.

Varianza del estimador de cresta

Sea la estimación de cresta bajo penalización k , y sea β el parámetro verdadero para el modelo Y = X β + ϵ . Deje que λ 1 , ... , λ p sea los valores propios de X T X . De las ecuaciones de Hoerl y Kennard 4.2-4.5, el riesgo (en términos de la norma L 2 esperada del error) esβ^kβY=Xβ+ϵλ1,,λpXTX
L2

donde, por lo que puedo decir, ( X T X+k I p ) -2= ( X T X+k I p ) -1 ( X T X+k I p ) -1. Observan queγ1tiene la interpretación de la varianza del producto interno de ^ β -β, mientras queγ2

E([β^β]T[β^β])=σ2j=1pλj/(λj+k)2+k2βT(XTX+kIp)2β=γ1(k)+γ2(k)=R(k)
(XTX+kIp)2=(XTX+kIp)1(XTX+kIp)1.γ1β^βγ2 es el producto interno del sesgo.

Suponiendo que , entonces R ( k ) = p σ 2 + k 2 β T βXTX=Ip Sea R(k)=2k(1+k)βTβ-(pσ2+k2βTβ)

R(k)=pσ2+k2βTβ(1+k)2.
será la derivada del riesgo w / r / tk. Como limk0+R(k)=-2pσ2<0, concluimos que hay algo dek>0tal queR(k)<R(0).
R(k)=2k(1+k)βTβ(pσ2+k2βTβ)(1+k)3
klimk0+R(k)=2pσ2<0k>0R(k)<R(0)

k=0XTXlimk0+R(k) .

Comentario

p=1X(β,σ2)kβTβkβTβ

¿Por qué la regresión de cresta generalmente se recomienda solo en el caso de predictores correlacionados?

βTβXTXβEYX es sospechoso: la matriz de covarianza grande es un síntoma de eso.

Pero si su objetivo es únicamente la predicción, las preocupaciones de inferencia ya no se mantienen, y usted tiene un fuerte argumento para usar algún tipo de estimador de contracción.


2
βkkk=0

2
H&K consistently assume XX is of full rank. By stating that the answer to #1 is "no," are you claiming their results continue to be true when it is not?
whuber

3
@whuber: Central to their derivation of the risk is that the ridge estimate β^=Zβ^, where β^ is the OLS estimate and Z=((XTX)1+kIp)1. This clearly cannot hold as such when XTX is rank deficient. But the OLS estimate doesn't exist--so perhaps any estimate with finite risk (take k large enough and you'll get β^0, with risk βTβ) is better than an estimator that doesn't exist? As far as if the risk derivation still holds: I'm not sure. A different proof would be needed.
Andrew M

3
@amoeba: yes, your restatement seems correct. To dominate the OLS estimator, we need some sort of adaptive procedure, in which λ is a function of the data. On your other thread, Xi'an had a comment about adaptive ridge estimates, so that might be a place to look. RE: ridge estimates for orthogonal designs--I have added another comment as far as the guidance I'd take from their proof.
Andrew M
Al usar nuestro sitio, usted reconoce que ha leído y comprende nuestra Política de Cookies y Política de Privacidad.
Licensed under cc by-sa 3.0 with attribution required.