Você está olhando para os fluxogramas de algoritmos de nível superior. Algumas das etapas individuais no fluxograma podem merecer seus próprios fluxogramas detalhados. No entanto, em artigos publicados com ênfase na brevidade, muitos detalhes são frequentemente omitidos. Detalhes para problemas padrão de otimização interna, que são considerados "antigos", podem não ser fornecidos.
A idéia geral é que algoritmos de otimização podem exigir a solução de uma série de problemas de otimização geralmente mais fáceis. Não é incomum ter 3 ou até 4 níveis de algoritmos de otimização em um algoritmo de nível superior, embora alguns deles sejam internos aos otimizadores padrão.
Mesmo decidir quando finalizar um algoritmo (em um dos níveis hierárquicos) pode exigir a solução de um problema de otimização lateral. Por exemplo, um problema de mínimos quadrados lineares sem restrição negativa pode ser resolvido para determinar os multiplicadores de Lagrange usados para avaliar a pontuação de otimização KKT usada para decidir quando declarar a otimização.
Se o problema de otimização for estocástico ou dinâmico, pode haver ainda níveis hierárquicos adicionais de otimização.
Aqui está um exemplo. Programação Quadrática Sequencial (SQP). Um problema de otimização inicial é tratado resolvendo iterativamente as condições de otimização de Karush-Kuhn-Tucker, começando de um ponto inicial com um objetivo que é uma aproximação quadrática do Lagrangiano do problema e uma linearização das restrições. O programa quadrático resultante (QP) é resolvido. O QP resolvido possui restrições de região de confiança ou uma pesquisa de linha é conduzida da iteração atual para a solução do QP, que é um problema de otimização, a fim de encontrar a próxima iteração. Se um método Quasi-Newton estiver sendo usado, um problema de otimização deverá ser resolvido para determinar a atualização Quasi-Newton no Hessian do Lagrangiano - normalmente, essa é uma otimização de formulário fechado usando fórmulas de formulário fechado, como BFGS ou SR1, mas poderia ser uma otimização numérica. Em seguida, o novo QP é resolvido etc. Se o QP for sempre inviável, inclusive para iniciar, um problema de otimização será resolvido para encontrar um ponto viável. Enquanto isso, pode haver um ou dois níveis de problemas de otimização interna sendo chamados dentro do solucionador de QP. No final de cada iteração, um problema de mínimos quadrados lineares não negativos pode ser resolvido para determinar a pontuação de otimização. Etc.
Se este for um problema inteiro misto, todo esse shebang poderá ser executado em cada nó de ramificação, como parte de um algoritmo de nível superior. Da mesma forma para um otimizador global - um problema de otimização local é usado para produzir um limite superior para a solução globalmente ótima, então um relaxamento de algumas restrições é feito para produzir um problema de otimização de limite inferior. Milhares ou mesmo milhões de problemas de otimização "fáceis" de ramificação e limite podem ser resolvidos para resolver um problema misto de número inteiro ou otimização global.
Isso deve começar a dar uma idéia.
Edit : Em resposta à pergunta sobre frango e ovo que foi adicionada à pergunta após a minha resposta: Se houver um problema com frango e ovo, não será um algoritmo prático bem definido. Nos exemplos que dei, não há frango e ovo. Etapas de algoritmo de nível superior invocam solucionadores de otimização, que são definidos ou já existem. O SQP chama iterativamente um solucionador de QP para resolver subproblemas, mas o solucionador de QP resolve um problema mais fácil, QP, do que o problema original. Se houver um algoritmo de otimização global de nível ainda mais alto, ele poderá chamar um solucionador SQP para resolver subproblemas de otimização não linear local, e o solucionador SQP, por sua vez, chamará um solucionador QP para resolver subproblemas QP. Sem frango e ovo.
Nota: As oportunidades de otimização estão "em todos os lugares". Especialistas em otimização, como aqueles que desenvolvem algoritmos de otimização, têm mais chances de ver essas oportunidades de otimização e vê-las como tal do que o Joe ou Jane médio. E sendo inclinados algoritmicamente, naturalmente vêem oportunidades para criar algoritmos de otimização a partir de algoritmos de otimização de nível inferior. A formulação e solução de problemas de otimização servem como blocos de construção para outros algoritmos de otimização (de nível superior).
Edit 2 : Em resposta à solicitação de recompensa que acabou de ser adicionada pelo OP. O documento que descreve o otimizador não-linear SQP SNOPT https://web.stanford.edu/group/SOL/reports/snopt.pdf menciona especificamente o solucionador de QP SQOPT, que é documentado separadamente, como sendo usado para resolver subproblemas de QP no SNOPT.