La prueba de fórmulas equivalentes de regresión de crestas


15

He leído los libros más populares sobre aprendizaje estadístico.

1- Los elementos del aprendizaje estadístico.

2- Una introducción al aprendizaje estadístico .

Ambos mencionan que la regresión de crestas tiene dos fórmulas que son equivalentes. ¿Existe una prueba matemática comprensible de este resultado?

También pasé por Cross Validated , pero no puedo encontrar una prueba definitiva allí.

Además, ¿LASSO disfrutará del mismo tipo de prueba?

ingrese la descripción de la imagen aquí



1
El lazo no es una forma de regresión de cresta.
Xi'an

@jeza, ¿podrías explicar lo que falta en mi respuesta? Realmente deriva todo lo que se puede derivar sobre la conexión.
Royi

@jeza, ¿podrías ser específico? A menos que conozca el concepto lagrangiano para problemas restringidos, es difícil dar una respuesta concisa.
Royi

1
@jeza, un problema de optimización restringido puede convertirse en optimización de la función lagrangiana / condiciones KKT (como se explica en las respuestas actuales). Este principio ya tiene muchas explicaciones simples diferentes en todo Internet. ¿En qué dirección es necesaria una mayor explicación de la prueba? ¿Explicación / prueba del multiplicador / función lagrangiana, explicación / prueba de cómo este problema es un caso de optimización relacionado con el método de Lagrange, la diferencia KKT / Lagrange, explicación del principio de regularización, etc.?
Sextus Empiricus

Respuestas:


19

La clásica Regresión de cresta ( regularización de Tikhonov ) viene dada por:

argminx12xy22+λx22

La afirmación anterior es que el siguiente problema es equivalente:

argminX12X-y22sujeto aX22t

Vamos a definir x como la solución óptima del problema y la primera ~ x como la solución óptima del segundo problema.X^X~

El reclamo de equivalencia significa que t,λ0:x^=x~ .
Es decir, siempre se puede tener un par det yλ0 como la solución del problema es el mismo.

¿Cómo podemos encontrar un par?
Bueno, resolviendo los problemas y observando las propiedades de la solución.
Ambos problemas son convexos y suaves, por lo que debería simplificar las cosas.

La solución para el primer problema se da en el punto en que el gradiente desaparece, lo que significa:

x^y+2λx^=0

Las condiciones de KKT del segundo problema establecen:

x~y+2μx~=0

y

μ(x~22t)=0

La última ecuación sugiere que μ=0 o x~22=t .

Presta atención a que las 2 ecuaciones básicas son equivalentes.
Es decir, si x = ~ x y μ = λ sostienen ambas ecuaciones. x^=x~μ=λ

Por lo tanto, significa que en el caso de y22t uno debe establecer μ=0 que significa que para t suficientemente grande para que ambos sean equivalentes, uno debe establecer λ=0 .

En el otro caso, uno debe encontrar μ donde:

yt(I+2μI)1(I+2μI)1y=t

Esto es básicamente cuando x~22=t

Una vez que encuentre que μ las soluciones colisionarán.

Con respecto al caso L1 (LASSO), bueno, funciona con la misma idea.
La única diferencia es que no tenemos solución cerrada, por lo tanto, derivar la conexión es más complicado.

Eche un vistazo a mi respuesta en StackExchange Cross Validated Q291962 y StackExchange Signal Processing Q21730 - Importancia de λ en la búsqueda de bases .

Observación
¿Qué está pasando realmente?
En ambos problemas, x intenta estar lo más cerca posible de y .
En el primer caso, x=y desaparecerá el primer término (The L2 distancia ) y en el segundo caso hará que la función objetivo desaparezca.
La diferencia es que en el primer caso uno debe equilibrar la Norma L2 de x . A medida que λ aumenta, el equilibrio significa que debe hacer x más pequeño.
En el segundo caso hay una pared, acercas x cada vez más a yhasta que golpeas la pared, que es la restricción en su Norma (Por t ).
Si la pared está lo suficientemente lejos (alto valor de t ) y suficiente depende de la norma de y entonces no tiene significado, al igual que λ es relevante solo porque su valor multiplicado por la norma de y comienza a ser significativo.
La conexión exacta es por el lagrangiano mencionado anteriormente.

Recursos

Encontré este documento hoy (03/04/2019):


¿el equivalente significa que \ lambda y \ t deberían ser iguales? Porque no puedo ver eso en la prueba. gracias
jeza

@jeza, como escribí anteriormente, para cualquier hay λ 0tλ0 (no necesariamente igual a pero una función de t y los datos y ) de modo que las soluciones de las dos formas son las mismas. tty
Royi

3
@jeza, tanto & t son parámetros esencialmente libres aquí. Una vez que especifique, digamos, λ , eso produce una solución óptima específica. Pero t sigue siendo un parámetro libre. Entonces, en este punto, la afirmación es que puede haber algún valor de t que produzca la misma solución óptima. Esencialmente no hay restricciones sobre lo que debe ser t ; no es como si tuviera que ser alguna función fija de λ , como t = λ / 2 o algo así. λtλtttλt=λ/2
gung - Restablece a Monica

@Royi, me gustaría saber 1- ¿por qué su fórmula tiene (1/2), mientras que las fórmulas en cuestión no? 2- ¿estás usando KKT para mostrar la equivalencia de las dos fórmulas? 3- si es así, todavía no puedo ver esa equivalencia. No estoy seguro, pero lo que espero ver es esa prueba para mostrar que la fórmula uno = fórmula dos.
jeza 01 de

1. Simplemente más fácil cuando diferencia el término LS. Puedes mover mi al OP λ por un factor de dos. 2. Usé KKT para el segundo caso. El primer caso no tiene restricciones, por lo tanto, solo puede resolverlo. 3. No existe una ecuación de forma cerrada entre ellos. Mostré la lógica y cómo puedes crear un gráfico conectándolos. Pero como escribí, cambiará para cada y (depende de los datos). λλy
Royi

9

Un enfoque menos matemáticamente riguroso, pero posiblemente más intuitivo, para comprender lo que está sucediendo es comenzar con la versión de restricción (ecuación 3.42 en la pregunta) y resolverla utilizando los métodos del "Multiplicador de Lagrange" ( https: //en.wikipedia .org / wiki / Lagrange_multiplier o su texto de cálculo multivariable favorito). Solo recuerda que en el cálculo es el vector de variables, pero en nuestro caso x es constante y β es el vector variable. Una vez que aplica la técnica del multiplicador de Lagrange, termina con la primera ecuación (3.41) (después de tirar el extra - λ t que es constante en relación con la minimización y puede ignorarse).xxβλt

Esto también muestra que esto funciona para el lazo y otras restricciones.


8

Quizás valga la pena leer sobre la dualidad lagrangiana y una relación más amplia (a veces equivalencia) entre:

  • optimización sujeta a restricciones duras (es decir, inviolables)
  • optimización con penalizaciones por violar restricciones.

Introducción rápida a la dualidad débil y dualidad fuerte

Supongamos que tenemos alguna función de dos variables. Para cualquier x yf(x,y)x^, se tiene:y^

minxf(x,y^)f(x^,y^)maxyf(x^,y)

Dado que es válido para cualquier x e y que también sostiene que:x^y^

maxyminxf(x,y)minxmaxyf(x,y)

Esto se conoce como dualidad débil . En ciertas circunstancias, también tiene una fuerte dualidad (también conocida como la propiedad del punto de silla de montar ):

maxyminxf(x,y)=minxmaxyf(x,y)

Cuando se mantiene una fuerte dualidad, resolver el problema dual también resuelve el problema primario. En cierto sentido, ¡son el mismo problema!

Lagrangiano para la regresión de cresta restringida

Permítanme definir la función como:L

L(b,λ)=i=1n(yxib)2+λ(j=1pbj2t)

La interpretación min-max del lagrangiano

El problema de regresión de Ridge sujeto a restricciones duras es:

minbmaxλ0L(b,λ)

You pick b to minimize the objective, cognizant that after b is picked, your opponent will set λ to infinity if you chose b such that j=1pbj2>t.

If strong duality holds (which it does here because Slater's condition is satisfied for t>0), you then achieve the same result by reversing the order:

maxλ0minbL(b,λ)

Here, your opponent chooses λ first! You then choose b to minimize the objective, already knowing their choice of λ. The minbL(b,λ) part (taken λ as given) is equivalent to the 2nd form of your Ridge Regression problem.

As you can see, this isn't a result particular to Ridge regression. It is a broader concept.

References

(I started this post following an exposition I read from Rockafellar.)

Rockafellar, R.T., Convex Analysis

You might also examine lectures 7 and lecture 8 from Prof. Stephen Boyd's course on convex optimization.


note that your answer can be extended to any convex function.
81235

6

They are not equivalent.

For a constrained minimization problem

(1)minbi=1n(yxib)2s.t.j=1pbj2t,b=(b1,...,bp)

we solve by minimize over b the corresponding Lagrangean

(2)Λ=i=1n(yxib)2+λ(j=1pbj2t)

Here, t is a bound given exogenously, λ0 is a Karush-Kuhn-Tucker non-negative multiplier, and both the beta vector and λ are to be determined optimally through the minimization procedure given t.

Comparing (2) and eq (3.41) in the OP's post, it appears that the Ridge estimator can be obtained as the solution to

(3)minb{Λ+λt}

Since in (3) the function to be minimized appears to be the Lagrangean of the constrained minimization problem plus a term that does not involve b, it would appear that indeed the two approaches are equivalent...

But this is not correct because in the Ridge regression we minimize over b given λ>0. But, in the lens of the constrained minimization problem, assuming λ>0 imposes the condition that the constraint is binding, i.e that

j=1p(bj,ridge)2=t

The general constrained minimization problem allows for λ=0 also, and essentially it is a formulation that includes as special cases the basic least-squares estimator (λ=0) and the Ridge estimator (λ>0).

So the two formulation are not equivalent. Nevertheless, Matthew Gunn's post shows in another and very intuitive way how the two are very closely connected. But duality is not equivalence.


@MartijnWeterings Thanks for the comment, I have reworked my answer.
Alecos Papadopoulos

@MartijnWeterings I do not see what is confusing since the expression written in your comment is exactly the expression I wrote in my reworked post.
Alecos Papadopoulos

1
This was the duplicate question I had in mind were the equivalence is explained very intuitively to me math.stackexchange.com/a/336618/466748 the argument that you give for the two not being equivalent seems only secondary to me, and a matter of definition (the OP uses λ0 instead of λ>0 and we could just as well add the constrain t<βOLS22 to exclude the cases where λ=0) .
Sextus Empiricus

@MartijnWeterings When A is a special case of B, A cannot be equivalent to B. And ridge regression is a special case of the general constrained minimization problem, Namely a situation to which we arrive if we constrain further the general problem (like you do in your last comment).
Alecos Papadopoulos

Certainly you could define some constrained minimization problem that is more general then ridge regression (like you can also define some regularization problem that is more general than ridge regression, e.g. negative ridge regression), but then the non-equivalence is due to the way that you define the problem and not due to the transformation from the constrained representation to the Lagrangian representation. The two forms can be seen as equivalent within the constrained formulation/definition (non-general) that are useful for ridge regression.
Sextus Empiricus
Al usar nuestro sitio, usted reconoce que ha leído y comprende nuestra Política de Cookies y Política de Privacidad.
Licensed under cc by-sa 3.0 with attribution required.