Sí, es posible usar estos datos de confianza. Sin embargo, no recomendaría el enfoque que menciona. En cambio, permítanme sugerir un enfoque diferente. En realidad, te sugiero dos. El primero es conceptualmente limpio; el segundo es probablemente más fácil de implementar; y probablemente serán aproximadamente equivalentes en la práctica.
Ajuste la función de pérdida
Puede ajustar la función de pérdida para reflejar los puntajes de confianza que tiene en los datos de entrenamiento.
En particular, si está utilizando la pérdida de entropía cruzada , hay una forma particularmente limpia de hacerlo. Permítanme explicar algunos antecedentes sobre la pérdida de entropía cruzada, luego explique cómo. Pensamos en la etiqueta en la instancia de entrenamiento como una distribución de probabilidad en las etiquetas. En la clasificación binaria, dicha distribución se puede representar como un vector donde representa la probabilidad de que la etiqueta sea 0 y la probabilidad de que la etiqueta sea 1. Normalmente, se nos dan "etiquetas duras": si sepa que la etiqueta correcta en la instancia es 0, entonces eso corresponde a la distribución de probabilidad ; si la etiqueta correcta es 1, esa es la distribución(p0,p1)p0p1x(1,0)(0,1). La pérdida de entropía cruzada luego compara la predicción del clasificador con esta distribución.
Lo bueno de la pérdida de entropía cruzada es que genera fácilmente la comparación de dos distribuciones. Por lo tanto, si tiene una confianza de que la etiqueta correcta, por ejemplo es 0, entonces eso corresponde a una distribución de probabilidad . Ahora, puede calcular la entropía cruzada de la predicción del clasificador con respecto a la distribución , y esa es la contribución a la pérdida de la instancia de entrenamiento . Suma esto en todas las instancias del conjunto de entrenamiento y obtendrás una función de pérdida ajustada.0.8x(0.8,0.2)(0.8,0.2)x
Ahora puede entrenar a un clasificador minimizando esta función de pérdida ajustada, y eso incorporará directamente toda la información en sus puntajes de confianza.
Usa pesas
Alternativamente, puede usar pesos para reflejar la información de confianza.
Algunos clasificadores le permiten especificar un peso para cada instancia en el conjunto de entrenamiento. La idea es que una predicción errónea para una instancia particular se penaliza proporcionalmente a su peso, por lo que las instancias con un peso alto son más importantes para acertar y las instancias con un peso bajo son menos importantes. O, de manera equivalente, el procedimiento de entrenamiento se esfuerza más para evitar errores en instancias con un peso elevado.
Puede usar pesos para reflejar información de confianza. Suponga que tiene una instanciada en el conjunto de entrenamiento que cree que debería tener la etiqueta 0, con una confianza de . Agregaría una copia de al conjunto de entrenamiento con un peso de (es decir, la instancia es etiqueta es 0), y agregaría una copia de al conjunto de entrenamiento con un peso de (es decir, instancia es etiqueta es 1). Desarrolle el conjunto de entrenamiento de esta manera. Esto duplica el tamaño de tu conjunto de entrenamiento. Ahora entrene a un clasificador, utilizando estos pesos.x0.8(x,0)0.8x(x,1)0.2x
Para los clasificadores que soportan pesos, esto debería ser fácil de implementar.
También se puede demostrar que es efectivo y razonable. Por ejemplo, cuando se usa la pérdida de entropía cruzada para entrenar a un clasificador, este enfoque que usa pesos es equivalente a ajustar la función de pérdida como se destacó anteriormente. Entonces, en ese contexto particular, los dos enfoques son en realidad equivalentes.