Em termos de iterações externas, o SQP deve vencer porque inclui informações de segunda derivada, enquanto métodos lagrangianos aumentados, como o ADMM, não.
No entanto, lembre-se de que cada iteração desses métodos envolve a solução de um sistema linear; portanto, para fazer uma comparação justa, é necessário levar em consideração a facilidade com que esses sistemas são resolvidos.
Para métodos lagrangianos aumentados (alternados), a cada iteração que você está resolvendo algo como,
onde A é um operador direto direto da função objetivo que é conhecida e geralmente mais fácil de lidar ou pré-condição , e ρ é o parâmetro de penalidade. (por exemplo, seu problema é min x | | A
(ATA+ρI)x=b,
Aρminx||Ax−b||2 sujeito a algumas regularizações e restrições).
Para métodos SQP, você está resolvendo algo como
que H
Hx=g,
H é o hessiano (ou aproximação do mesmo) que geralmente só está disponível implicitamente em termos de ação em vetores
é o gradiente. O Hessian contém não apenas
AgA , mas também uma combinação de outras matrizes e inversos de matrizes provenientes da linearização das restrições e da regularização.
Pré-condicionar Hessianos é um negócio bastante complicado e é muito menos estudado do que pré-condicionar problemas futuros. Um método padrão é aproximar o inverso de Hessian com L-BFGS, mas isso é de eficácia limitada quando o inverso de Hessian é alto. Outro método popular é aproximar o Hessian como uma soma de uma matriz de baixo escalão mais uma matriz fácil de inverter, mas isso também tem eficácia limitada para problemas difíceis. Outras técnicas populares de estimativa hessiana são baseadas em aproximações esparsas, mas os problemas de continuum geralmente têm hessianos que têm aproximações esparsas ruins.