Estoy estudiando la diferencia entre la regularización en la regresión RKHS y la regresión lineal, pero me resulta difícil comprender la diferencia crucial entre los dos.
¿Cuál sería la diferencia crucial entre estos dos enfoques y sus soluciones?
Estoy estudiando la diferencia entre la regularización en la regresión RKHS y la regresión lineal, pero me resulta difícil comprender la diferencia crucial entre los dos.
¿Cuál sería la diferencia crucial entre estos dos enfoques y sus soluciones?
Respuestas:
Como probablemente haya notado al escribir los problemas de optimización, la única diferencia en la minimización es qué norma de Hilbert usar para la penalización. Es decir, cuantificar qué valores 'grandes' de son para fines de penalización. En la configuración RKHS, utilizamos el producto interno RKHS, , mientras que la regresión de cresta penaliza con respecto a la norma euclidiana.
Una consecuencia teórica interesante es cómo cada efectos de método del espectro de la reproducción del núcleo . Según la teoría de RKHS, tenemos que es simétrico positivo definido. Según el teorema espectral, podemos escribir donde es la matriz diagonal de los valores propios y es la matriz ortonormal de los vectores propios. En consecuencia, en la configuración RKHS, Mientras tanto, en la configuración de regresión de Ridge, tenga en cuenta que por simetría,
Dependiendo de la elección del núcleo, las dos estimaciones para pueden estar cercanas o alejadas entre sí. La distancia en el sentido de la norma del operador será Sin embargo, esto todavía está limitado para una dada
En la práctica, es difícil decir definitivamente si uno es mejor que el otro para una situación dada. Como estamos minimizando con respecto al error al cuadrado al representar los datos en términos de la función del núcleo, estamos eligiendo efectivamente una mejor curva de regresión del correspondiente espacio de funciones de Hilbert. Por lo tanto, penalizar con respecto al producto interno RKHS parece ser la forma natural de proceder.