Para poner la respuesta de @ziggystar en términos de jerga de aprendizaje automático: la idea detrás de las técnicas de agregación bootstrap (por ejemplo, bosques aleatorios) es ajustar muchos modelos de baja polarización y alta varianza a los datos con algún elemento de "aleatoriedad" o "inestabilidad". En el caso de los bosques aleatorios, la inestabilidad se agrega a través de bootstrapping y al elegir un conjunto aleatorio de características para dividir cada nodo del árbol. Al promediar estos árboles ruidosos, pero de bajo sesgo, se alivia la gran variación de cualquier árbol individual.
Mientras que los árboles de regresión / clasificación son modelos de "bajo sesgo y alta varianza", los modelos de regresión lineal son típicamente lo opuesto: "alto sesgo y baja varianza". Por lo tanto, el problema que a menudo se enfrenta con los modelos lineales es reducir el sesgo, no reducir la varianza. La agregación Bootstrap simplemente no está hecha para hacer esto.
Un problema adicional es que el arranque puede no proporcionar suficiente "aleatoriedad" o "inestabilidad" en un modelo lineal típico. Esperaría que un árbol de regresión sea más sensible a la aleatoriedad de las muestras de bootstrap, ya que cada hoja generalmente solo contiene un puñado de puntos de datos. Además, los árboles de regresión se pueden cultivar estocásticamente dividiendo el árbol en un subconjunto aleatorio de variables en cada nodo. Vea esta pregunta anterior para saber por qué esto es importante: ¿Por qué los bosques aleatorios se dividen en función de m características aleatorias?
Dicho todo esto, ciertamente puede usar bootstrapping en modelos lineales [LINK] , y esto puede ser muy útil en ciertos contextos. Sin embargo, la motivación es muy diferente de las técnicas de agregación bootstrap.
a_0 + a_1 * x_1 + ... + a_d * x_d
, la función lineal promedio resultante (después de la agregación de bootstrap) todavía tiene la misma forma funcional lineal con la que comienza (es decir, el "alumno base").