minx,y F(x)+G(y),s.tAx+By=c
FGAB
Eu encontrar o seguinte caso especial de , e ilustrativos. Nesse caso, a restrição diz , ou seja, podemos substituir para obter o problema
Agora, resolver isso pode ser difícil, enquanto a solução de problemas da forma
pode ser fácil. (Você mesmo pode criar exemplos disso, um popular é e ). No ADMM, você começa a partir da "forma "
e cria o Lagragian aumentado "
A=IB=−Ic=0x−y=0
minxF(x)+G(x).
minxρF(x)+12∥x−z∥2
F(x)=λ∥x∥1G(x)=12∥Ax−b∥2minx,y F(x)+G(y),s.tx−y=0
Lρ(x,y,z)=F(x)+G(y)+zT(x−y)+ρ2∥x−y∥2
com o
multiplicador de Lagrange . Agora você minimiza
alternadamente o Lagragian aumentado nas diferentes
direções e , ou seja, itera
e atualize o multiplicador de acordo com
Isso deve explicar o nome do
método de direções alternadas dos multiplicadores .
z xyxk+1=argminx Lρ(x,yk,zk)
yk+1=argminy Lρ(xk+1,y,z)
zk+1=zk+ρ(xk+1−yk+1).
Analisando estes problemas de minimização para e mais perto, você observar que para cada atualização só precisa resolver um problema da "forma mais simples", por exemplo, para o atualização
(negligenciando termos que não dependem de ).xyx
xk+1=argminx F(x)+ρ2∥x−yk+ρzk∥2
x
O ADMM para o problema
é derivado de maneira semelhante, mas os problemas intermediários das atualizações ainda são um um pouco difícil, mas pode ser comparativamente simples em comparação com o original. Especialmente no caso de e (ou equivalente , e a restrição ) as atualizações são mais ou menos simples de implementar.
minx,y F(x)+G(y),s.tAx+By=c
F(x)=λ∥x∥1G(x)=12∥Ax−b∥2F(x)=λ∥x∥1G(y)=12∥y∥2Ax−y=b