Como es común en algunos algoritmos de aprendizaje automático, Boosting está sujeto a una compensación de variación de sesgo con respecto al número de árboles. Hablando en términos generales, esta compensación le dice que: (i) los modelos débiles tienden a tener un alto sesgo y baja varianza: son demasiado rígidos para capturar la variabilidad en el conjunto de datos de entrenamiento, por lo que tampoco funcionará bien en el conjunto de prueba (prueba alta error) (ii) los modelos muy fuertes tienden a tener un sesgo bajo y una gran varianza: son demasiado flexibles y se ajustan demasiado al conjunto de entrenamiento, por lo que en el conjunto de prueba (ya que los puntos de datos son diferentes del conjunto de entrenamiento) tampoco funcionarán bien (error de prueba alto)
El concepto de impulsar árboles es comenzar con árboles poco profundos (modelos débiles) y seguir agregando más árboles poco profundos que intentan corregir las debilidades de los árboles anteriores. A medida que realiza este proceso, el error de prueba tiende a disminuir (porque el modelo general se vuelve más flexible / potente). Sin embargo, si agrega demasiados de esos árboles, comienza a sobreajustar los datos de entrenamiento y, por lo tanto, aumenta el error de prueba. La validación cruzada ayuda a encontrar el punto óptimo