Consideremos un problema unidimensional para la exposición más simple posible. (Los casos de dimensiones superiores tienen propiedades similares).
Mientras que ambosy tienen cada uno un mínimo único,(una suma de funciones de valor absoluto con diferentes desplazamientos x) a menudo no lo hace. Considere y :El | x-μ |( x - μ )2∑yoEl | Xyo- μ |X1= 1X2= 3
(Nota: a pesar de la etiqueta en el eje x, esta es realmente una función de ; debería haber modificado la etiqueta pero la dejaré como está)μ
En dimensiones superiores, puede obtener regiones de mínimo constante con la L_1. Hay un ejemplo en el caso de las líneas de ajuste aquí .L1
Las sumas de las cuadráticas siguen siendo cuadráticas, por lo que tendrá una solución única. En dimensiones superiores (por ejemplo, la regresión múltiple) el problema cuadrático puede no tener automáticamente un mínimo único: puede tener una multicolinealidad que conduce a una cresta de menor dimensión en el negativo de la pérdida en el espacio de parámetros; Esa es una cuestión algo diferente a la presentada aquí.∑yo( xyo- μ )2= n ( x¯- μ )2+ k ( x )
Una advertencia. La página que vinculan a las demandas que regresión-norma es robusto. Debo decir que no estoy completamente de acuerdo. Es robusto frente a grandes desviaciones en la dirección y, siempre que no sean puntos influyentes (discrepantes en el espacio x). Puede ser arruinado arbitrariamente por incluso un solo caso atípico influyente. Hay un ejemplo aquí .L1
Dado que (fuera de algunas circunstancias específicas) generalmente no tiene ninguna garantía de que no haya observaciones altamente influyentes, no llamaría robusta la regresión L1.
Código R para la trama:
fi <- function(x,i=0) abs(x-i)
f <- function(x) fi(x,1)+fi(x,3)
plot(f,-1,5,ylim=c(0,6),col="blue",lwd=2)
curve(fi(x,1),-1,5,lty=3,col="dimgrey",add=TRUE)
curve(fi(x,3),-1,5,lty=3,col="dimgrey",add=TRUE)