Al impulsar, los clasificadores débiles o inestables se utilizan como aprendices básicos. Este es el caso porque el objetivo es generar límites de decisión que sean considerablemente diferentes. Entonces, un buen aprendiz base es uno que está muy sesgado, en otras palabras, el resultado sigue siendo básicamente el mismo, incluso cuando los parámetros de entrenamiento para los aprendices base cambian ligeramente.
En las redes neuronales, el abandono es una técnica de regularización que se puede comparar con los conjuntos de entrenamiento. La diferencia es que el ensamblaje se realiza en el espacio latente (existen o no neuronas), lo que disminuye el error de generalización.
"Por lo tanto, cada ejemplo de entrenamiento se puede considerar como un gradiente para una arquitectura diferente, muestreada al azar, de modo que la red neuronal final represente eficientemente un gran conjunto de redes neuronales, con una buena capacidad de generalización", citando desde aquí .
Existen dos técnicas de este tipo: en el abandono, las neuronas se eliminan (lo que significa que las neuronas existen o no con una cierta probabilidad), mientras que en el dropconnect se eliminan los pesos.
Ahora, para responder a su pregunta, creo que las redes neuronales (o perceptrones) no se utilizan como aprendices básicos en una configuración de impulso, ya que son más lentas para entrenar (solo toma demasiado tiempo) y los alumnos no son tan débiles, aunque podrían estar configurado para ser más inestable. Entonces, no vale la pena el esfuerzo.
Puede haber habido investigaciones sobre este tema, sin embargo, es una pena que las ideas que no funcionan bien generalmente no se publiquen con éxito. Necesitamos más investigación que cubra las vías que no conducen a ninguna parte, también conocido como "no te molestes en probar esto".
EDITAR:
Aunque tenía un poco más de información sobre esto y si está interesado en conjuntos de redes grandes, entonces podría estar refiriéndose a métodos para combinar las salidas de múltiples redes de este tipo. La mayoría de las personas promedia o usa el voto mayoritario según la tarea; esto podría no ser óptimo. Creo que debería ser posible cambiar los pesos para la salida de cada red de acuerdo con el error en un registro particular. Cuanto menos correlacionados sean los resultados, mejor será su regla de ensamblaje.