3 años después, respondo a mi propia pregunta.
Para mí, la principal diferencia está en cuál es el resultado de los modelos en los diferentes problemas. En la regresión ordinal, la tarea es predecir una etiqueta para una muestra dada, por lo tanto, el resultado de una predicción es una etiqueta (como es el caso, por ejemplo, en la clasificación multiclase). Por otro lado, en el problema de aprender a clasificar, la salida es un orden de una secuencia de muestras. Es decir, la salida de un modelo de clasificación puede verse como una permutación que hace que las muestras tengan etiquetas tan ordenadas como sea posible. Por lo tanto, a diferencia del modelo de regresión ordinal, el algoritmo de clasificación no puede predecir una etiqueta de clase. Debido a esto, la entrada de un modelo de clasificación no necesita especificar etiquetas de clase, sino solo un orden parcial entre las muestras (ver, por ejemplo, [0] para una aplicación de esto). En este sentido, la clasificación es un problema más fácil que la regresión ordinal:
Esto se explica mejor con un ejemplo. Supongamos que tenemos los siguientes pares de (muestra, etiqueta): . Ante esta entrada, un modelo de clasificación predecirá un orden de esta secuencia de muestras. Por ejemplo, para algoritmos de clasificación, las permutaciones y son predicciones con puntaje perfecto ya que Las etiquetas de ambas secuencias y están ordenadas. Por otro lado, una regresión ordinal predeciría una etiqueta para cada una de las muestras, y en este caso la predicción (1, 2, 2) daría una puntuación perfecta, pero no (1, 2, 3) o (1, 3, 2).{ (X1, 1 ) , (X2, 2 ) , (X3, 2 ) }( 1 , 2 , 3 ) → ( 1 , 2 , 3 )( 1 , 2 , 3 ) → ( 1 , 3 , 2 ){ (X1, 1 ) , (X2, 2 ) , (X3, 2 ) }{ (X1, 1 ) , (X3, 2 ) , (X2, 2 ) }
[0] Optimización de motores de búsqueda utilizando datos de clics Thorsten Joachims