Estou tentando entender o algoritmo de rebinning da integração de Monte Carlo do VEGAS ( publicação original ( pré - impressão de LKlevin) e notas de implementação ). Vou tentar explicar primeiro o que acho que entendi e depois fazer minhas perguntas.
Por simplicidade, vamos assumir que temos uma função unidimensional positiva durante todo o intervalo [ 0 , 1 ] . Esse intervalo é separado em, digamos, n compartimentos. Essas caixas são inicialmente do mesmo tamanho. Os tamanhos dos compartimentos Δ x i definem uma densidade de probabilidade
Os tamanhos dos compartimentos devem somar a duração do intervalo para tornar normalizado adequadamente:
Até agora, isso é apenas amostragem de importância (não estou interessado em amostragem estratificada) usando uma grade de tamanho variável. A parte interessante do VEGAS é o algoritmo de reinicialização, ou seja, o algoritmo que recalcula os tamanhos dos compartimentos, dependendo dos valores das funções acumuladas na iteração antes:
- Para cada posição, os valores da função ao quadrado (?) São somados (na publicação original, os valores absolutos são somados).
- Também existe uma função de amortecimento aplicada a cada valor, para "evitar mudanças rápidas e desestabilizadoras".
- Os tamanhos de compartimento agora estão definidos de forma que cada novo compartimento contenha aproximadamente a média:
Por que está escrito assim? Por que não se lida com o problema mais diretamente, por exemplo, tomando a função média e em bin como uma densidade de probabilidade para a próxima iteração?