Los métodos del kernel pueden usarse para problemas supervisados y no supervisados. Ejemplos bien conocidos son la máquina de vectores de soporte y la agrupación espectral del núcleo , respectivamente.
Los métodos de kernel proporcionan una forma estructurada de usar un algoritmo lineal en un espacio de características transformado, para el cual la transformación es típicamente no lineal (y a un espacio dimensional superior). La ventaja clave que trae este llamado truco del núcleo es que los patrones no lineales se pueden encontrar a un costo computacional razonable .
K ∈ Rnorte× NnorteO ( N2)O(N3)N
Esto hace que los métodos del núcleo sean muy interesantes desde una perspectiva computacional cuando el número de dimensiones es grande y el número de muestras es relativamente bajo (digamos, menos de 1 millón).
Relacionado: ¿ Kernel lineal y kernel no lineal para máquina de vectores de soporte?
SVM para problemas a gran escala
Para problemas dimensionales muy altos, como las 10000
dimensiones que menciona en la pregunta, a menudo no es necesario asignar un espacio de características dimensionales más altas. El espacio de entrada ya es lo suficientemente bueno. Para tales problemas, los métodos lineales son órdenes de magnitud más rápidos con casi el mismo rendimiento predictivo. Se pueden encontrar ejemplos de estos métodos en LIBLINEAR o Vowpal Wabbit .
500N5.000.00010.000
Np
RBF
kernellibsvm
, siempre se sobreajusta, el clasificador logra una alta precisión pero baja precisión en el conjunto de pruebas. Y si hago la reducción de dimensiones antes del clasificador, y las dimensiones reducidas están cerca del número de muestras de entrenamiento, el clasificador puede lograr un buen beneficio entre el entrenamiento y el conjunto de pruebas. ¿Los resultados se ajustan a la mayoría de los resultados empíricos? Gracias.