Se estima que los estimadores de regresión penalizados como LASSO y ridge corresponden a estimadores bayesianos con ciertos antecedentes.
Si, eso es correcto. Siempre que tengamos un problema de optimización que implique la maximización de la función log-verosimilitud más una función de penalización en los parámetros, esto es matemáticamente equivalente a la maximización posterior donde la función de penalización se considera el logaritmo de un núcleo anterior. † Para ver esto, supongamos que tenemos una función de penalización w usando un parámetro de ajuste λ . La función objetivo en estos casos se puede escribir como:†wλ
Hx(θ|λ)=ℓx(θ)−w(θ|λ)=ln(Lx(θ)⋅exp(−w(θ|λ)))=ln(Lx(θ)π(θ|λ)∫Lx(θ)π(θ|λ)dθ)+const=lnπ(θ|x,λ)+const,
donde usamos el anterior π(θ|λ)∝exp(−w(θ|λ)) . Observe aquí que el parámetro de ajuste en la optimización se trata como un hiperparámetro fijo en la distribución anterior. Si está realizando una optimización clásica con un parámetro de ajuste fijo, esto es equivalente a realizar una optimización bayesiana con un hiperparámetro fijo. Para la regresión LASSO y Ridge, las funciones de penalización y los equivalentes anteriores correspondientes son:
LASSO RegressionRidge Regressionπ(θ|λ)π(θ|λ)=∏k=1mLaplace(0,1λ)=∏k=1mλ2⋅exp(−λ|θk|),=∏k=1mNormal(0,12λ)=∏k=1mλ/π−−−√⋅exp(−λθ2k).
El primer método penaliza los coeficientes de regresión de acuerdo con su magnitud absoluta, que es el equivalente a imponer un Laplace ubicado previamente en cero. El último método penaliza los coeficientes de regresión de acuerdo con su magnitud al cuadrado, que es el equivalente a imponer un previo normal ubicado en cero.
Ahora un frecuentista optimizaría el parámetro de ajuste mediante validación cruzada. ¿Existe un equivalente bayesiano de hacerlo, y se utiliza en absoluto?
Mientras el método frecuentista se pueda plantear como un problema de optimización (en lugar de decir, incluyendo una prueba de hipótesis, o algo así), habrá una analogía bayesiana con un equivalente anterior. Del mismo modo que los frecuentistas pueden tratar el parámetro de ajuste λ como desconocido y estimar esto a partir de los datos, el Bayesiano puede tratar de manera similar el hiperparámetro λ como desconocido. En un análisis bayesiano completo, esto implicaría dar al hiperparámetro su propio previo y encontrar el máximo posterior bajo este previo, lo que sería análogo a maximizar la siguiente función objetivo:
Hx(θ,λ)=ℓx(θ)−w(θ|λ)−h(λ)=ln(Lx(θ)⋅exp(−w(θ|λ))⋅exp(−h(λ)))=ln(Lx(θ)π(θ|λ)π(λ)∫Lx(θ)π(θ|λ)π(λ)dθ)+const=lnπ(θ,λ|x)+const.
De hecho, este método se utiliza en el análisis bayesiano en los casos en que el analista no se siente cómodo eligiendo un hiperparámetro específico para su previo, y busca hacer que el anterior sea más difuso al tratarlo como desconocido y darle una distribución. (Tenga en cuenta que esta es solo una forma implícita de dar una forma más difusa antes del parámetro de interés θ .)
(Comentario de statslearner2 a continuación) Estoy buscando estimaciones numéricas de MAP equivalentes. Por ejemplo, para una cresta de penalización fija hay un previo gaussiano que me dará la estimación de MAP exactamente igual a la estimación de cresta. Ahora, para k-fold CV ridge, ¿cuál es el hiper-previo que me daría la estimación MAP que es similar a la estimación CV-ridge?
Antes de proceder a analizar la validación cruzada de K -pliegues, primero vale la pena señalar que, matemáticamente, el método de máximo a posteriori (MAP) es simplemente una optimización de una función del parámetro θ y los datos x . Si está dispuesto a permitir antecedentes inadecuados, el alcance encapsula cualquier problema de optimización que implique una función de estas variables. Por lo tanto, cualquier método frecuente que pueda enmarcarse como un problema de optimización único de este tipo tiene una analogía MAP, y cualquier método frecuente que no pueda enmarcarse como una optimización única de este tipo no tiene una analogía MAP.
En la forma de modelo anterior, que involucra una función de penalización con un parámetro de sintonización, la validación cruzada K -doble se usa comúnmente para estimar el parámetro de sintonización λ . Para este método de particionar los datos del vector x en K sub-vectores x1,...,xK . Para cada uno de sub-vector k=1,...,K ajusta el modelo con los datos de "entrenamiento" x−k y luego mide el ajuste del modelo con los datos de "prueba" xk. In each fit you get an estimator for the model parameters, which then gives you predictions of the testing data, which can then be compared to the actual testing data to give a measure of "loss":
EstimatorPredictionsTesting lossθ^(x−k,λ),x^k(x−k,λ),Lk(x^k,xk|x−k,λ).
The loss measures for each of the K "folds" can then be aggregated to get an overall loss measure for the cross-validation:
L(x,λ)=∑kLk(x^k,xk|x−k,λ)
One then estimates the tuning parameter by minimising the overall loss measure:
λ^≡λ^(x)≡arg min λL(x,λ).
We can see that this is an optimisation problem, and so we now have two seperate optimisation problems (i.e., the one described in the sections above for θ, and the one described here for λ). Since the latter optimisation does not involve θ, we can combine these optimisations into a single problem, with some technicalities that I discuss below. To do this, consider the optimisation problem with objective function:
Hx(θ,λ)=ℓx(θ)−w(θ|λ)−δL(x,λ),
where δ>0 is a weighting value on the tuning-loss. As δ→∞ the weight on optimisation of the tuning-loss becomes infinite and so the optimisation problem yields the estimated tuning parameter from K-fold cross-validation (in the limit). The remaining part of the objective function is the standard objective function conditional on this estimated value of the tuning parameter. Now, unfortunately, taking δ=∞ screws up the optimisation problem, but if we take δ to be a very large (but still finite) value, we can approximate the combination of the two optimisation problems up to arbitrary accuracy.
From the above analysis we can see that it is possible to form a MAP analogy to the model-fitting and K-fold cross-validation process. This is not an exact analogy, but it is a close analogy, up to arbitrarily accuracy. It is also important to note that the MAP analogy no longer shares the same likelihood function as the original problem, since the loss function depends on the data and is thus absorbed as part of the likelihood rather than the prior. In fact, the full analogy is as follows:
Hx(θ,λ)=ℓx(θ)−w(θ|λ)−δL(x,λ)=ln(L∗x(θ,λ)π(θ,λ)∫L∗x(θ,λ)π(θ,λ)dθ)+const,
where L∗x(θ,λ)∝exp(ℓx(θ)−δL(x,λ)) and π(θ,λ)∝exp(−w(θ|λ)), with a fixed (and very large) hyper-parameter δ.
† This gives an improper prior in cases where the penalty does not correspond to the logarithm of a sigma-finite density.