Si sus pesos cambian más lentamente de lo que se dibujan, C ++ 11 discrete_distribution
será el más fácil:
#include <random>
#include <vector>
std::vector<double> weights{90,56,4};
std::discrete_distribution<int> dist(std::begin(weights), std::end(weights));
std::mt19937 gen;
gen.seed(time(0));//if you want different results from different runs
int N = 100000;
std::vector<int> samples(N);
for(auto & i: samples)
i = dist(gen);
//do something with your samples...
Sin embargo, tenga en cuenta que c ++ 11 discrete_distribution
calcula todas las sumas acumulativas en la inicialización. Por lo general, lo desea porque acelera el tiempo de muestreo por un costo O (N) único. Pero para una distribución que cambia rápidamente, incurrirá en un alto costo de cálculo (y memoria). Por ejemplo, si los pesos representan la cantidad de elementos que hay y cada vez que dibuja uno, lo elimina, probablemente querrá un algoritmo personalizado.
La respuesta de Will https://stackoverflow.com/a/1761646/837451 evita esta sobrecarga, pero será más lenta de extraer que C ++ 11 porque no puede usar la búsqueda binaria.
Para ver que hace esto, puede ver las líneas relevantes ( /usr/include/c++/5/bits/random.tcc
en mi instalación de Ubuntu 16.04 + GCC 5.3):
template<typename _IntType>
void
discrete_distribution<_IntType>::param_type::
_M_initialize()
{
if (_M_prob.size() < 2)
{
_M_prob.clear();
return;
}
const double __sum = std::accumulate(_M_prob.begin(),
_M_prob.end(), 0.0);
// Now normalize the probabilites.
__detail::__normalize(_M_prob.begin(), _M_prob.end(), _M_prob.begin(),
__sum);
// Accumulate partial sums.
_M_cp.reserve(_M_prob.size());
std::partial_sum(_M_prob.begin(), _M_prob.end(),
std::back_inserter(_M_cp));
// Make sure the last cumulative probability is one.
_M_cp[_M_cp.size() - 1] = 1.0;
}