La Regresión de cresta se puede expresar como donde es la etiqueta predicha , la matriz de identificación , el objeto para el que estamos tratando de encontrar una etiqueta y la matriz de objetos tal que:
Podemos kernelizar esto de la siguiente manera:
donde es la matriz de las funciones del kernel
y el vector de columna de las funciones del kernel
Preguntas:
(a) si hay más objetos que dimensiones, ¿tiene sentido no usar núcleos? Por ejemplo, dejemos que sea una matriz , luego será un y terminaremos invirtiendo una matriz lugar de matriz que tendríamos que invertir si utilizáramos núcleos. ¿Esto significa que si no deberíamos usar núcleos?
(b) ¿debería usarse el núcleo más simple posible? Parece que los núcleos en la regresión de crestas se usan para negar las influencias de la dimensionalidad y no para utilizar ciertas propiedades del espacio de características (a diferencia de las máquinas de vectores de soporte). Aunque, los núcleos pueden cambiar las distancias entre los objetos, ¿hay algún núcleo popular que se use con frecuencia en la regresión de crestas?
(c) ¿Cuál es la complejidad del tiempo de la regresión de cresta y / o la regresión de cresta del núcleo?