Calibrar un clasificador potenciado multiclase


19

He leído el artículo de Alexandru Niculescu-Mizil y Rich Caruana " Obtención de probabilidades calibradas del aumento " y la discusión en este hilo. Sin embargo, todavía tengo problemas para comprender e implementar la logística o el escalado de Platt para calibrar la salida de mi clasificador de refuerzo de varias clases (refuerzo suave con tocones de decisión).

Estoy algo familiarizado con los modelos lineales generalizados, y creo que entiendo cómo funcionan los métodos logísticos y de calibración de Platt en el caso binario, pero no estoy seguro de saber cómo extender el método descrito en el documento al caso de clases múltiples.

El clasificador que estoy usando muestra lo siguiente:

  • = Número de votos que el clasificador emite para la clase j para la muestra i que se está clasificandofijji
  • = clase estimadayi

En este punto tengo las siguientes preguntas:

P1: ¿Necesito usar un logit multinomial para estimar probabilidades? ¿o aún puedo hacer esto con regresión logística (p. ej. en una forma de 1 contra todos )?

P2: ¿Cómo debo definir las variables objetivo intermedias (por ejemplo, como en la escala de Platt) para el caso de múltiples clases?

P3: Entiendo que esto podría ser mucho pedir, pero ¿alguien estaría dispuesto a esbozar el pseudocódigo para este problema? (en un nivel más práctico, estoy interesado en una solución en Matlab).


1
gran pregunta También me he preguntado cómo construir la calibración, incluso si usa 1 versus el resto del esquema. Si crea k modelos usando 1 versus el resto (y hay k clases), ¿tiene que / debería normalizarlos de alguna manera para que sumen 1 (por ejemplo, divida cada probabilidad calibrada por la suma de todos los k)?
B_Miner

Respuestas:


9

Este es un tema de interés práctico para mí también, así que investigué un poco. Aquí hay dos documentos de un autor que a menudo se enumeran como referencia en estos asuntos.

  1. Transformando los puntajes del clasificador en estimaciones precisas de probabilidad multiclase
  2. Reducir multiclase a binario mediante el acoplamiento de estimaciones de probabilidad

La esencia de la técnica recomendada aquí es reducir el problema multiclase a uno binario (por ejemplo, uno versus el resto, AKA uno versus todos), usar una técnica como Platt (preferiblemente usando un conjunto de pruebas) para claibrar las puntuaciones / probabilidades binarias y luego combine estos utilizando una técnica como se discutió en los documentos (uno es una extensión de un proceso de "acoplamiento" de Hastie et al.) En el primer enlace, los mejores resultados se encontraron simplemente normalizando las probabilidades binarias a las que suman 1.

Me encantaría escuchar otros consejos y si alguna de estas técnicas se ha incluido en R.


Los enlaces mencionados en la respuesta están desactualizados. Los últimos enlaces son: citeseerx.ist.psu.edu/viewdoc/… citeseerx.ist.psu.edu/viewdoc/…
Chandra


Haciéndose eco de esta respuesta. Esto me dejó perplejo por algún tiempo, pero el artículo de Zadrozny y Elkan resultó útil.
songololo
Al usar nuestro sitio, usted reconoce que ha leído y comprende nuestra Política de Cookies y Política de Privacidad.
Licensed under cc by-sa 3.0 with attribution required.