Un alumno 'débil' (clasificador, predictor, etc.) es solo uno que tiene un desempeño relativamente pobre: su precisión está por encima del azar, pero apenas. A menudo, pero no siempre, existe la implicación adicional de que es computacionalmente simple. El alumno débil también sugiere que muchas instancias del algoritmo se agrupan (a través de refuerzo, embolsado, etc.) para crear un clasificador de conjunto "fuerte".
Se menciona en el documento original AdaBoost de Freund & Schapire:
Quizás la más sorprendente de estas aplicaciones es la derivación de una nueva aplicación para "impulsar", es decir, convertir un algoritmo de aprendizaje PAC "débil" que funciona un poco mejor que la suposición aleatoria en una con una precisión arbitrariamente alta. - (Freund y Schapire, 1995)
pero creo que la frase es en realidad más antigua que eso: he visto a personas citar un artículo final (?!) de Michael Kearns de la década de 1980.
El ejemplo clásico de un estudiante débil es un tocón de decisión, un árbol de decisión de un nivel (1R o OneR es otro estudiante débil de uso común; es bastante similar). Sería un tanto extraño llamar a un SVM un 'alumno débil', incluso en situaciones en las que tiene un desempeño deficiente, pero sería perfectamente razonable llamar a un aprendiz débil una decisión difícil, incluso cuando se desempeña sorprendentemente bien por sí mismo.
Adaboost es un algoritmo iterativo y generalmente denota el número de iteraciones o "rondas". El algoritmo comienza entrenando / probando a un alumno débil en los datos, ponderando cada ejemplo por igual. Los ejemplos que se clasifican erróneamente aumentan sus pesos para la (s) siguiente (s) ronda (s), mientras que aquellos que están clasificados correctamente obtienen sus pesos disminuidos.
T
No estoy seguro de que haya algo mágico en . En el artículo de 1995, se proporciona como un parámetro libre (es decir, lo configura usted mismo).T= 10T