Supongamos que tengo un clasificador (podría ser cualquiera de los clasificadores estándar como árbol de decisión, bosque aleatorio, regresión logística, etc.) para la detección de fraude usando el siguiente código
library(randomForest)
rfFit = randomForest(Y ~ ., data = myData, ntree = 400) # A very basic classifier
Say, Y is a binary outcome - Fraud/Not-Fraud
Ahora, he predicho en un conjunto de datos no visto .
pred = predict(rfFit, newData)
Luego, obtuve los comentarios del equipo de investigación sobre mi clasificación y descubrí que cometí un error al clasificar un fraude como No Fraude (es decir, Un Falso Negativo ) . ¿Hay alguna forma de que pueda dejar que mi algoritmo entienda que ha cometido un error? es decir, ¿alguna forma de agregar un ciclo de retroalimentación al algoritmo para que pueda corregir los errores?
Una opción que puedo pensar desde la parte superior de mi cabeza es construir una adaboost classifier
para que el nuevo clasificador corrija el error del anterior. o he escuchado algo de Incremental Learning
o Online learning
. ¿Hay implementaciones (paquetes) existentes en R
?
¿Es el enfoque correcto? o ¿Hay alguna otra forma de modificar el modelo en lugar de construirlo desde cero?