Estou interessado em maximizar uma função , onde .θ ∈ R p
O problema é que não conheço a forma analítica da função ou de suas derivadas. A única coisa que posso fazer é avaliar a função ponto a ponto, um valor e obtendo uma estimativa NOISY nesse ponto. Se eu quiser, posso diminuir a variabilidade dessas estimativas, mas tenho que pagar custos computacionais crescentes. * f ( θ * )
Aqui está o que eu tentei até agora:
Descida mais acentuada estocástica com diferenças finitas: pode funcionar, mas requer muita sintonia (por exemplo, sequência de ganho, fator de escala) e geralmente é muito instável.
Recozimento simulado: funciona e é confiável, mas requer muitas avaliações de funções, então achei bastante lento.
Então, eu estou pedindo sugestões / idéias sobre um possível método de otimização alternativo que possa funcionar sob essas condições. Estou mantendo o problema o mais geral possível, a fim de incentivar sugestões de áreas de pesquisa diferentes das minhas. Devo acrescentar que estaria muito interessado em um método que me desse uma estimativa do Hessian na convergência. Isso ocorre porque eu posso usá-lo para estimar a incerteza dos parâmetros . Caso contrário, terei que usar diferenças finitas em torno do máximo para obter uma estimativa.