Para impulsar algoritmos, diría que evolucionaron bastante bien. A principios de 1995 se introdujo AdaBoost, luego de un tiempo fue Gradient Boosting Machine (GBM). Recientemente, alrededor de 2015 se introdujo XGBoost, que es preciso, maneja el sobreajuste y se ha convertido en un ganador de múltiples competencias de Kaggle. En 2017, LightGBM fue presentado por Microsoft, que ofrece un tiempo de entrenamiento significativamente menor en comparación con XGBoost. Además, Yandex introdujo CatBoost para manejar características categóricas.
Random Forest se introdujo a principios de la década de 2000, pero ¿ha habido sucesores dignos? Creo que si existiera un mejor algoritmo de ensacado que Random Forest (que se puede aplicar fácilmente en la práctica), habría llamado la atención en lugares como Kaggle. Además, ¿por qué el refuerzo se convirtió en la técnica de conjunto más popular, es porque puedes construir menos árboles para una predicción óptima?