Se seus pesos mudam mais lentamente do que são desenhados, C ++ 11 discrete_distribution
será o mais fácil:
#include <random>
#include <vector>
std::vector<double> weights{90,56,4};
std::discrete_distribution<int> dist(std::begin(weights), std::end(weights));
std::mt19937 gen;
gen.seed(time(0));//if you want different results from different runs
int N = 100000;
std::vector<int> samples(N);
for(auto & i: samples)
i = dist(gen);
//do something with your samples...
Observe, entretanto, que o c ++ 11 discrete_distribution
calcula todas as somas cumulativas na inicialização. Normalmente, você deseja isso porque acelera o tempo de amostragem para um custo O (N) único. Mas, para uma distribuição que muda rapidamente, isso incorrerá em um alto custo de cálculo (e memória). Por exemplo, se os pesos representavam quantos itens existem e cada vez que você desenha um e o remove, provavelmente desejará um algoritmo personalizado.
A resposta de Will https://stackoverflow.com/a/1761646/837451 evita essa sobrecarga, mas será mais lento para desenhar do que o C ++ 11 porque não pode usar a pesquisa binária.
Para ver se ele faz isso, você pode ver as linhas relevantes ( /usr/include/c++/5/bits/random.tcc
na minha instalação do Ubuntu 16.04 + GCC 5.3):
template<typename _IntType>
void
discrete_distribution<_IntType>::param_type::
_M_initialize()
{
if (_M_prob.size() < 2)
{
_M_prob.clear();
return;
}
const double __sum = std::accumulate(_M_prob.begin(),
_M_prob.end(), 0.0);
// Now normalize the probabilites.
__detail::__normalize(_M_prob.begin(), _M_prob.end(), _M_prob.begin(),
__sum);
// Accumulate partial sums.
_M_cp.reserve(_M_prob.size());
std::partial_sum(_M_prob.begin(), _M_prob.end(),
std::back_inserter(_M_cp));
// Make sure the last cumulative probability is one.
_M_cp[_M_cp.size() - 1] = 1.0;
}