Estou tentando resolver alguns problemas de otimização não-linear sem restrições na GPU (CUDA).
A função objetivo é uma função não-linear suave e seu gradiente é relativamente barato para calcular analiticamente, portanto, não preciso me preocupar com a aproximação numérica.
Quero resolver esse problema principalmente com operações matemáticas fp32 (por várias razões); portanto, qual método de otimização não-linear é mais robusto contra erros de arredondamento e tem bom desempenho? (por exemplo, gradiente conjugado / quase newton / região de confiança), alguém já tentou o BFGS na GPU com bons resultados?
BTW, o Hessian, se necessário, é relativamente pequeno no meu caso (<64x64 normalmente), mas preciso resolver milhares desses problemas de otimização em pequena escala simultaneamente.