Consulte también una pregunta similar sobre estadísticas .
Al impulsar algoritmos como AdaBoost y LPBoost , se sabe que los alumnos "débiles" que se combinan solo tienen que rendir mejor que la posibilidad de ser útiles, de Wikipedia:
Los clasificadores que utiliza pueden ser débiles (es decir, mostrar una tasa de error sustancial), pero siempre que su rendimiento no sea aleatorio (lo que resulta en una tasa de error de 0.5 para la clasificación binaria), mejorarán el modelo final. Incluso los clasificadores con una tasa de error superior a la que se esperaría de un clasificador aleatorio serán útiles, ya que tendrán coeficientes negativos en la combinación lineal final de clasificadores y, por lo tanto, se comportarán como sus inversos.
¿Cuáles son los beneficios de usar estudiantes débiles en lugar de fuertes? (por ejemplo, ¿por qué no aumentar con métodos de aprendizaje "fuertes"? ¿Somos más propensos a sobreajustar?)
¿Existe algún tipo de fortaleza "óptima" para los alumnos débiles? ¿Y esto está relacionado con el número de alumnos en el conjunto?
¿Existe alguna teoría para respaldar las respuestas a estas preguntas?