LASSO y la cresta desde la perspectiva bayesiana: ¿qué pasa con el parámetro de ajuste?


17

Se estima que los estimadores de regresión penalizados como LASSO y ridge corresponden a estimadores bayesianos con ciertos antecedentes. Supongo (como no sé lo suficiente sobre las estadísticas bayesianas) que para un parámetro de ajuste fijo, existe un previo concreto correspondiente.

Ahora un frecuentista optimizaría el parámetro de ajuste mediante validación cruzada. ¿Existe un equivalente bayesiano de hacerlo, y se utiliza en absoluto? ¿O el enfoque bayesiano fija efectivamente el parámetro de ajuste antes de ver los datos? (Supongo que esto último sería perjudicial para el rendimiento predictivo).


3
Me imagino que un enfoque completamente bayesiano comenzaría con un previo dado y no lo modificaría, sí. Pero también existe un enfoque empírico de bayes que optimiza los valores de hiperparámetros: por ejemplo, consulte stats.stackexchange.com/questions/24799 .
ameba dice Reinstate Monica

Pregunta adicional (podría ser parte de la P principal): ¿Existe algún parámetro previo sobre la regularización que de alguna manera reemplace el proceso de validación cruzada?
kjetil b halvorsen

1
Los bayesianos pueden poner un previo en el parámetro de ajuste, ya que generalmente corresponde a un parámetro de varianza. Por lo general, esto es lo que se hace para evitar el currículum vitae para mantenerse completamente Bayes. Alternativamente, puede usar REML para optimizar el parámetro de regularización.
chico

2
PD: para aquellos que buscan la recompensa, tenga en cuenta mi comentario: quiero ver una respuesta explícita que muestre un previo que induzca una estimación MAP equivalente a la validación cruzada frecuentista.
statslearner2

1
@ statslearner2 Creo que aborda muy bien la pregunta de Richard. Su recompensa parece estar centrada en un aspecto más estrecho (sobre un hiperprior) que la Q de Richard.
Ameeba dice Reinstate Monica

Respuestas:


18

Se estima que los estimadores de regresión penalizados como LASSO y ridge corresponden a estimadores bayesianos con ciertos antecedentes.

Si, eso es correcto. Siempre que tengamos un problema de optimización que implique la maximización de la función log-verosimilitud más una función de penalización en los parámetros, esto es matemáticamente equivalente a la maximización posterior donde la función de penalización se considera el logaritmo de un núcleo anterior. Para ver esto, supongamos que tenemos una función de penalización w usando un parámetro de ajuste λ . La función objetivo en estos casos se puede escribir como:wλ

Hx(θ|λ)=x(θ)w(θ|λ)=ln(Lx(θ)exp(w(θ|λ)))=ln(Lx(θ)π(θ|λ)Lx(θ)π(θ|λ)dθ)+const=lnπ(θ|x,λ)+const,

donde usamos el anterior π(θ|λ)exp(w(θ|λ)) . Observe aquí que el parámetro de ajuste en la optimización se trata como un hiperparámetro fijo en la distribución anterior. Si está realizando una optimización clásica con un parámetro de ajuste fijo, esto es equivalente a realizar una optimización bayesiana con un hiperparámetro fijo. Para la regresión LASSO y Ridge, las funciones de penalización y los equivalentes anteriores correspondientes son:

LASSO Regressionπ(θ|λ)=k=1mLaplace(0,1λ)=k=1mλ2exp(λ|θk|),Ridge Regressionπ(θ|λ)=k=1mNormal(0,12λ)=k=1mλ/πexp(λθk2).

El primer método penaliza los coeficientes de regresión de acuerdo con su magnitud absoluta, que es el equivalente a imponer un Laplace ubicado previamente en cero. El último método penaliza los coeficientes de regresión de acuerdo con su magnitud al cuadrado, que es el equivalente a imponer un previo normal ubicado en cero.

Ahora un frecuentista optimizaría el parámetro de ajuste mediante validación cruzada. ¿Existe un equivalente bayesiano de hacerlo, y se utiliza en absoluto?

Mientras el método frecuentista se pueda plantear como un problema de optimización (en lugar de decir, incluyendo una prueba de hipótesis, o algo así), habrá una analogía bayesiana con un equivalente anterior. Del mismo modo que los frecuentistas pueden tratar el parámetro de ajuste λ como desconocido y estimar esto a partir de los datos, el Bayesiano puede tratar de manera similar el hiperparámetro λ como desconocido. En un análisis bayesiano completo, esto implicaría dar al hiperparámetro su propio previo y encontrar el máximo posterior bajo este previo, lo que sería análogo a maximizar la siguiente función objetivo:

Hx(θ,λ)=x(θ)w(θ|λ)h(λ)=ln(Lx(θ)exp(w(θ|λ))exp(h(λ)))=ln(Lx(θ)π(θ|λ)π(λ)Lx(θ)π(θ|λ)π(λ)dθ)+const=lnπ(θ,λ|x)+const.

De hecho, este método se utiliza en el análisis bayesiano en los casos en que el analista no se siente cómodo eligiendo un hiperparámetro específico para su previo, y busca hacer que el anterior sea más difuso al tratarlo como desconocido y darle una distribución. (Tenga en cuenta que esta es solo una forma implícita de dar una forma más difusa antes del parámetro de interés θ .)

(Comentario de statslearner2 a continuación) Estoy buscando estimaciones numéricas de MAP equivalentes. Por ejemplo, para una cresta de penalización fija hay un previo gaussiano que me dará la estimación de MAP exactamente igual a la estimación de cresta. Ahora, para k-fold CV ridge, ¿cuál es el hiper-previo que me daría la estimación MAP que es similar a la estimación CV-ridge?

Antes de proceder a analizar la validación cruzada de K -pliegues, primero vale la pena señalar que, matemáticamente, el método de máximo a posteriori (MAP) es simplemente una optimización de una función del parámetro θ y los datos x . Si está dispuesto a permitir antecedentes inadecuados, el alcance encapsula cualquier problema de optimización que implique una función de estas variables. Por lo tanto, cualquier método frecuente que pueda enmarcarse como un problema de optimización único de este tipo tiene una analogía MAP, y cualquier método frecuente que no pueda enmarcarse como una optimización única de este tipo no tiene una analogía MAP.

En la forma de modelo anterior, que involucra una función de penalización con un parámetro de sintonización, la validación cruzada K -doble se usa comúnmente para estimar el parámetro de sintonización λ . Para este método de particionar los datos del vector x en K sub-vectores x1,...,xK . Para cada uno de sub-vector k=1,...,K ajusta el modelo con los datos de "entrenamiento" xk y luego mide el ajuste del modelo con los datos de "prueba" xk. In each fit you get an estimator for the model parameters, which then gives you predictions of the testing data, which can then be compared to the actual testing data to give a measure of "loss":

Estimatorθ^(xk,λ),Predictionsx^k(xk,λ),Testing lossLk(x^k,xk|xk,λ).

The loss measures for each of the K "folds" can then be aggregated to get an overall loss measure for the cross-validation:

L(x,λ)=kLk(x^k,xk|xk,λ)

One then estimates the tuning parameter by minimising the overall loss measure:

λ^λ^(x)arg min λL(x,λ).

We can see that this is an optimisation problem, and so we now have two seperate optimisation problems (i.e., the one described in the sections above for θ, and the one described here for λ). Since the latter optimisation does not involve θ, we can combine these optimisations into a single problem, with some technicalities that I discuss below. To do this, consider the optimisation problem with objective function:

Hx(θ,λ)=x(θ)w(θ|λ)δL(x,λ),

where δ>0 is a weighting value on the tuning-loss. As δ the weight on optimisation of the tuning-loss becomes infinite and so the optimisation problem yields the estimated tuning parameter from K-fold cross-validation (in the limit). The remaining part of the objective function is the standard objective function conditional on this estimated value of the tuning parameter. Now, unfortunately, taking δ= screws up the optimisation problem, but if we take δ to be a very large (but still finite) value, we can approximate the combination of the two optimisation problems up to arbitrary accuracy.

From the above analysis we can see that it is possible to form a MAP analogy to the model-fitting and K-fold cross-validation process. This is not an exact analogy, but it is a close analogy, up to arbitrarily accuracy. It is also important to note that the MAP analogy no longer shares the same likelihood function as the original problem, since the loss function depends on the data and is thus absorbed as part of the likelihood rather than the prior. In fact, the full analogy is as follows:

Hx(θ,λ)=x(θ)w(θ|λ)δL(x,λ)=ln(Lx(θ,λ)π(θ,λ)Lx(θ,λ)π(θ,λ)dθ)+const,

where Lx(θ,λ)exp(x(θ)δL(x,λ)) and π(θ,λ)exp(w(θ|λ)), with a fixed (and very large) hyper-parameter δ.


This gives an improper prior in cases where the penalty does not correspond to the logarithm of a sigma-finite density.


2
Ok +1 already, but for the bounty I'm looking for these more precise answers.
statslearner2

4
1. I do not get how (since frequentists generally use classical hypothesis tests, etc., which have no Bayesian equivalent) connects to the rest of what I or you are saying; parameter tuning has nothing to do with hypothesis tests, or does it? 2. Do I understand you correctly that there is no Bayesian equivalent to frequentist regularized estimation when the tuning parameter is selected by cross validation? What about empirical Bayes that amoeba mentions in the comments to the OP?
Richard Hardy

3
3. Since regularization with cross validation seems to be quite effective for, say, prediction, doesn't point 2. suggest that the Bayesian approach is somehow inferior?
Richard Hardy

1
@Ben, thanks for your explicit answer and the subsequent clarifications. You have once again done a wonderful job! Regarding 3., yes, it was quite a jump; it certainly is not a strict logical conclusion. But looking at your points w.r.t. 2. (that a Bayesian method can approximate the frequentist penalized optimization with cross validation), I no longer think that Bayesian must be "inferior". The last quibble on my side is, could you perhaps explain how the last, complicated formula could arise in practice in the Bayesian paradigm? Is it something people would normally use or not?
Richard Hardy

2
@Ben (ctd) My problem is that I know little about Bayes. Once it gets technical, I may easily lose the perspective. So I wonder whether this complicated analogy (the last formula) is something that is just a technical possibility or rather something that people routinely use. In other words, I am interested in whether the idea behind cross validation (here in the context of penalized estimation) is resounding in the Bayesian world, whether its advantages are utilized there. Perhaps this could be a separate question, but a short description will suffice for this particular case.
Richard Hardy

6

Indeed most penalized regression methods correspond to placing a particular type of prior to the regression coefficients. For example, you get the LASSO using a Laplace prior, and the ridge using a normal prior. The tuning parameters are the “hyperparameters” under the Bayesian formulation for which you can place an additional prior to estimate them; for example, for in the case of the ridge it is often assumed that the inverse variance of the normal distribution has a χ2 prior. However, as one would expect, resulting inferences can be sensitive to the choice of the prior distributions for these hyperparameters. For example, for the horseshoe prior there are some theoretical results that you should place such a prior for the hyperparameters that it would reflect the number of non-zero coefficients you expect to have.

A nice overview of the links between penalized regression and Bayesian priors is given, for example, by Mallick and Yi.


Thank you for your answer! The linked paper is quite readable, which is nice.
Richard Hardy

2
This does not answer the question, can you elaborate to explain how does the hyper-prior relate to k-fold CV?
statslearner2
Al usar nuestro sitio, usted reconoce que ha leído y comprende nuestra Política de Cookies y Política de Privacidad.
Licensed under cc by-sa 3.0 with attribution required.