Preguntas etiquetadas con lasso

Un método de regularización para modelos de regresión que reduce los coeficientes hacia cero, haciendo que algunos de ellos sean iguales a cero. Por lo tanto, el lazo realiza la selección de características.



1
Cómo interpretar los resultados cuando tanto la cresta como el lazo funcionan bien por separado pero producen coeficientes diferentes
Estoy ejecutando un modelo de regresión con Lasso y Ridge (para predecir una variable de resultado discreta que va de 0 a 5). Antes de ejecutar el modelo, utilizo el SelectKBestmétodo de scikit-learnreducir el conjunto de características de 250 a 25 . Sin una selección inicial de características, tanto Lasso …




2
Programación Cuadrática y Lazo
Estoy tratando de realizar una regresión de lazo, que tiene la siguiente forma: Minimice in ( Y - X w ) ′ ( Y - X w ) + λwww( Y- Xw )′( Y- Xw ) + λEl | w |1(Y−Xw)′(Y−Xw)+λ|w|1(Y - Xw)'(Y - Xw) + \lambda \;|w|_1 Dado un …

4
Cómo arreglar un coeficiente y ajustar otros usando regresión
Me gustaría corregir manualmente un cierto coeficiente, digamos , luego ajustar los coeficientes a todos los demás predictores, mientras en el modelo.β 1 = 1.0β1=1.0β1=1.0\beta_1=1.0β1=1.0β1=1.0\beta_1=1.0 ¿Cómo puedo lograr esto usando R? En particular, me gustaría trabajar con LASSO ( glmnet) si es posible. Alternativamente, ¿cómo puedo restringir este coeficiente a …

1
¿Ridge y LASSO tienen una estructura de covarianza?
Después de leer el Capítulo 3 en los Elementos del aprendizaje estadístico (Hastie, Tibshrani y Friedman), me preguntaba si era posible implementar los famosos métodos de contracción citados en el título de esta pregunta dada una estructura de covarianza, es decir, minimizar el (quizás más general ) cantidad ( y⃗ …



2
¿Puede aumentar cuando
Si β∗=argminβ∥y−Xβ∥22+λ∥β∥1β∗=argminβ‖y−Xβ‖22+λ‖β‖1\beta^*=\mathrm{arg\,min}_{\beta} \|y-X\beta\|^2_2+\lambda\|\beta\|_1 , puede ∥β∗∥2‖β∗‖2\|\beta^*\|_2 aumentar cuando λλ\lambda aumenta? Creo que esto es posible. Aunque ∥β∗∥1‖β∗‖1\|\beta^*\|_1 no aumenta cuando λλ\lambda aumenta (mi prueba ), ∥β∗∥2‖β∗‖2\|\beta^*\|_2 puede aumentar. La siguiente figura muestra una posibilidad. Cuando λλ\lambda aumenta, si β∗β∗\beta^* viaja (linealmente) de PPP a QQQ , entonces ∥β∗∥2‖β∗‖2\|\beta^*\|_2 aumenta mientras …
11 lasso 

2
Umbral suave vs penalización de lazo
Estoy tratando de resumir lo que entendí hasta ahora en el análisis multivariado penalizado con conjuntos de datos de alta dimensión, y todavía me cuesta obtener una definición adecuada de la penalización de umbral suave frente a la penalización Lasso (o ).L1L1L_1 Más precisamente, utilicé una regresión PLS dispersa para …

1
Relación LASSO entre y
Mi comprensión de la regresión LASSO es que los coeficientes de regresión se seleccionan para resolver el problema de minimización: minβ∥y−Xβ∥22 s.t.∥β∥1≤tminβ‖y−Xβ‖22 s.t.‖β‖1≤t\min_\beta \|y - X \beta\|_2^2 \ \\s.t. \|\beta\|_1 \leq t En la práctica, esto se hace usando un multiplicador de Lagrange, lo que hace que el problema se …


Al usar nuestro sitio, usted reconoce que ha leído y comprende nuestra Política de Cookies y Política de Privacidad.
Licensed under cc by-sa 3.0 with attribution required.