Estou lidando com um problema de otimização que tem um grande número de variáveis para otimizar over - Por exemplo, vamos chamar essas variáveis , y , e z e desejo de minimizar a função f ( x , y , z ) . O método de otimização que estou usando não é capaz de lidar com a otimização de todas as variáveis de uma só vez. Em vez disso, estou simplificando o problema, otimizando uma única variável de cada vez, mantendo as outras variáveis corrigidas.
Ou seja, eu corrijo , e z = z 0 e, em seguida, otimizamos a função apenas sobre x . Essa otimização 1D gera um valor ótimo x ∗ . Corrijo então x = x ∗ , z = z 0 e otimizo sobre y . Sei que isso não necessariamente me fornece uma solução ótima globalmente, mas deve render um mínimo local.
Gostaria de saber qual é o nome desse método e onde posso encontrar qualquer informação sobre ele. Além disso, se houver uma comunidade mais apropriada para perguntar, entre em contato. obrigado
Editar: a otimização é realizada sobre , depois y , depois z , depois x e assim por diante até a solução convergir.