Preguntas etiquetadas con feature-selection

Métodos y principios para seleccionar un subconjunto de atributos para usar en modelos adicionales

5
¿Todavía necesitamos hacer una selección de características mientras usamos algoritmos de regularización?
Tengo una pregunta con respecto a la necesidad de utilizar métodos de selección de características (los bosques aleatorios tienen un valor de importancia de características o métodos de selección de características univariadas, etc.) antes de ejecutar un algoritmo de aprendizaje estadístico. Sabemos que para evitar el sobreajuste podemos introducir una …


2
¿Cómo tiene sentido hacer OLS después de la selección de variables LASSO?
Recientemente, descubrí que en la literatura de econometría aplicada, cuando se trata de problemas de selección de características, no es raro realizar LASSO seguido de una regresión de OLS utilizando las variables seleccionadas. Me preguntaba cómo podemos calificar la validez de tal procedimiento. ¿Causará problemas como variables omitidas? ¿Alguna prueba …

1
Qué concluir de esta trama de lazo (glmnet)
A continuación se muestra la gráfica de glmnet con alfa predeterminado (1, por lo tanto, lazo) utilizando mtcarsdatos establecidos en R con mpgDV y otros como variables predictoras. glmnet(as.matrix(mtcars[-1]), mtcars[,1]) ¿Qué podemos concluir de este gráfico con respecto a las diferentes variables, especialmente am, cyly wt(líneas roja, negra y azul …




2
Velocidad, gastos computacionales de PCA, LASSO, red elástica
Estoy tratando de comparar la complejidad computacional / velocidad de estimación de tres grupos de métodos para la regresión lineal como se distingue en Hastie et al. "Elementos del aprendizaje estadístico" (2ª ed.), Capítulo 3: Selección de subconjunto Métodos de contracción Métodos que utilizan direcciones de entrada derivadas (PCR, PLS) …



5
Variabilidad en los resultados de cv.glmnet
Estoy usando cv.glmnetpara encontrar predictores. La configuración que uso es la siguiente: lassoResults<-cv.glmnet(x=countDiffs,y=responseDiffs,alpha=1,nfolds=cvfold) bestlambda<-lassoResults$lambda.min results<-predict(lassoResults,s=bestlambda,type="coefficients") choicePred<-rownames(results)[which(results !=0)] Para asegurarse de que los resultados son reproducibles set.seed(1). Los resultados son muy variables. Ejecuté exactamente el mismo código 100 para ver qué tan variables fueron los resultados. En las ejecuciones 98/100 siempre …


5
Comprender qué características fueron más importantes para la regresión logística
He creado un clasificador de regresión logística que es muy preciso en mis datos. Ahora quiero entender mejor por qué funciona tan bien. Específicamente, me gustaría clasificar qué características están haciendo la mayor contribución (qué características son las más importantes) e, idealmente, cuantificar cuánto contribuye cada característica a la precisión …


1
En un bosque aleatorio, ¿el% IncMSE mayor es mejor o peor?
Una vez que he construido un modelo de bosque aleatorio (regresión) en R, la llamada rf$importanceme proporciona dos medidas para cada variable predictiva, %IncMSEy IncNodePurity. ¿La interpretación de que las variables predictoras con %IncMSEvalores más pequeños es más importante que las variables predictoras con %IncMSEvalores más grandes ? ¿Qué tal …

Al usar nuestro sitio, usted reconoce que ha leído y comprende nuestra Política de Cookies y Política de Privacidad.
Licensed under cc by-sa 3.0 with attribution required.