Isso é óbvio pela inspeção da quantidade que o LASSO está otimizando.
o anterior para ser Laplace independente com média zero e alguma escala .βiτ
Então .p(β|τ)∝e−12τ∑i|βi|
O modelo para os dados é a suposição de regressão usual .y∼iidN(Xβ,σ2)
f(y|X,β,σ2)∝(σ2)−n/2exp(−12σ2(y−Xβ)T(y−Xβ))
Agora menos o dobro do log do posterior é da forma
k(σ2,τ,n,p)+ 1σ2(y−Xβ)T(y−Xβ)+1τ∑i|βi|
Let e temos posterior deλ=σ2/τ−2log
k(σ2,λ,n,p)+ 1σ2[(y−Xβ)T(y−Xβ)+λ∑i|βi|]
O estimador MAP para minimiza o acima, o que minimizaβ
S=(y−Xβ)T(y−Xβ)+λ∑i|βi|
Portanto, o estimador MAP para é LASSO.β
(Aqui eu tratei como efetivamente corrigido, mas você pode fazer outras coisas com ele e ainda obter o LASSO saindo.)σ2
Edit: Isso é o que recebo para escrever uma resposta off-line; Não vi uma boa resposta já ter sido postada por Andrew. O meu realmente não faz nada que o dele já não faz. Deixarei o meu por enquanto, pois ele fornece mais alguns detalhes do desenvolvimento em termos de .β