Ya ha habido una excelente discusión sobre cómo las máquinas de vectores de soporte manejan la clasificación, pero estoy muy confundido acerca de cómo las máquinas de vectores de soporte generalizan a la regresión.
¿Alguien me puede explicar?
Ya ha habido una excelente discusión sobre cómo las máquinas de vectores de soporte manejan la clasificación, pero estoy muy confundido acerca de cómo las máquinas de vectores de soporte generalizan a la regresión.
¿Alguien me puede explicar?
Respuestas:
Básicamente se generalizan de la misma manera. El enfoque de regresión basado en el núcleo es transformar la característica, llamarla a algún espacio vectorial, luego realizar una regresión lineal en ese espacio vectorial. Para evitar la "maldición de la dimensionalidad", la regresión lineal en el espacio transformado es algo diferente que los mínimos cuadrados ordinarios. El resultado es que la regresión en el espacio transformado se puede expresar como , donde son observaciones del conjunto de entrenamiento, es la transformación aplicada a los datos y el punto es el producto de punto. Por lo tanto, la regresión lineal es 'apoyada' por unos pocos (preferiblemente un número muy pequeño de) vectores de entrenamiento.
Todos los detalles matemáticos están ocultos en la extraña regresión realizada en el espacio transformado ('tubo insensible a épsilon' o lo que sea) y la elección de la transformación, . Para un profesional, también hay preguntas acerca de algunos parámetros libres (generalmente en la definición de y la regresión), así como también de la caracterización , que es donde el conocimiento del dominio suele ser útil.
Para obtener una descripción general de SVM: ¿Cómo funciona una máquina de vectores de soporte (SVM)?
Con respecto a la regresión de vectores de soporte (SVR), encuentro estas diapositivas de http://cs.adelaide.edu.au/~chhshen/teaching/ML_SVR.pdf ( espejo ) muy claras:
La documentación de Matlab también tiene una explicación decente y, además, repasa el algoritmo de resolución de optimización: https://www.mathworks.com/help/stats/understanding-support-vector-machine-regression.html ( espejo ).
Hasta ahora, esta respuesta ha presentado la llamada regresión SVM insensible a épsilon (ε-SVM). Existe una variante más reciente de SVM para cualquier clasificación de regresión: los mínimos cuadrados admiten la máquina de vectores .
Además, SVR puede extenderse para múltiples salidas, también conocido como multi-objetivo, por ejemplo, ver {1}.
Referencias