Esto es obvio al inspeccionar la cantidad que el LASSO está optimizando.
Tome lo anterior para como Laplace independiente con media cero y algo de escala . τβiτ
Entonces .p(β|τ)∝e−12τ∑i|βi|
El modelo para los datos es el supuesto de regresión habitual .y∼iidN(Xβ,σ2)
f(y|X,β,σ2)∝(σ2)−n/2exp(−12σ2(y−Xβ)T(y−Xβ))
Ahora menos dos veces el registro de la parte posterior es de la forma
1k(σ2,τ,n,p)+ 1σ2(y−Xβ)T(y−Xβ)+1τ∑i|βi|
Deje y obtenemos -posterior de- 2 logλ=σ2/τ−2log
1k(σ2,λ,n,p)+ 1σ2[(y−Xβ)T(y−Xβ)+λ∑i|βi|]
El estimador MAP para minimiza lo anterior, lo que minimizaβ
S=(y−Xβ)T(y−Xβ)+λ∑i|βi|
Entonces el estimador MAP para es LASSO.β
(Aquí traté a como solucionado de manera efectiva, pero puedes hacer otras cosas con él y aún así aparece LASSO).σ2
Editar: Eso es lo que obtengo por componer una respuesta fuera de línea; No vi una buena respuesta ya fue publicada por Andrew. El mío realmente no hace nada que el suyo ya no haga. Dejaré el mío por ahora porque da un par de detalles más del desarrollo en términos de .β