En principio, sí. Sin embargo, no estoy seguro de que estas técnicas todavía se denominen regresión logística.
En realidad, su pregunta puede referirse a dos extensiones independientes de los clasificadores habituales:
Puede requerir que la suma de todas las membresías para cada caso sea una ("mundo cerrado" = el caso habitual)
o eliminar esta restricción (a veces llamada "clasificadores de una clase").
Esto podría ser entrenado por múltiples modelos LR independientes aunque una clase los problemas a menudo están mal planteados (esta clase frente a todo tipo de excepciones que podrían estar en todas las direcciones) y luego LR no es particularmente adecuado.
membresías de clase parciales: cada caso pertenece con membresía a cada clase, similar a las membresías en análisis de conglomerados difusos:
suponga que hay 3 clases A, B, C. Luego, una muestra puede se etiquetará como perteneciente a la clase B. Esto también se puede escribir como vector de pertenencia . En esta notación, las membresías parciales serían, por ejemplo, etc.∈[0,1]nclasses
[A=0,B=1,C=0][A=0.05,B=0.95,C=0]
Se pueden aplicar diferentes interpretaciones, según el problema (membresías difusas o probabilidades):
- difuso: un caso puede pertenecer a la mitad de la clase A y la otra mitad a la clase C: [0.5, 0, 0.5]
- probabilidad: la referencia (p. ej., un experto que clasifica las muestras) tiene un 80% de certeza de que pertenece a la clase A, pero dice que existe una probabilidad del 20% de que sea de la clase C mientras se asegura de que no es de la clase B (0%): [0.8, 0 , 0,2].
- otra probabilidad: votos de panel de expertos: 4 de 5 expertos dicen "A", 1 dice "C": nuevamente [0.8, 0, 0.2]
para la predicción, por ejemplo, las probabilidades posteriores no solo son posibles sino que son bastante comunes
- también es posible usar esto para entrenamiento
e incluso validación
La idea completa de esto es que para casos límite puede que no sea posible asignarlos inequívocamente a una clase.
- Si usted y cómo desea "endurecer" una predicción flexible (por ejemplo, probabilidad posterior) en una etiqueta de clase "normal" que corresponde al 100% de membresía a esa clase, depende completamente de usted. Incluso puede devolver el resultado "ambiguo" para probabilidades posteriores intermedias. Lo que sea sensible depende de su aplicación.
En R, por ejemplo, nnet:::multinom
que forma parte de MASS, acepta dichos datos para el entrenamiento. Se utiliza un ANN con sigmoide logístico y sin ninguna capa oculta detrás de escena.
Desarrollé un paquete softclassval
para la parte de validación.
Los clasificadores de una clase se explican muy bien en Richard G. Brereton: Chemometrics for Pattern Recognition, Wiley, 2009.
Presentamos una discusión más detallada de las membresías parciales en este documento:
Claudia Beleites, Kathrin Geiger, Matthias Kirsch, Stephan B Sobottka, Gabriele Schackert y Reiner Salzer: clasificación espectroscópica Raman de tejidos de astrocitoma: utilizando información de referencia blanda. Anal Bioanal Chem, 2011, vol. 400 (9), págs. 2801-2816