Preguntas etiquetadas con xgboost

Para preguntas relacionadas con el algoritmo eXtreme Gradient Boosting.


2
¿Cómo interpretar la salida de importancia XGBoost?
Ejecuté un modelo xgboost. No sé exactamente cómo interpretar la salida de xgb.importance. ¿Cuál es el significado de ganancia, cobertura y frecuencia y cómo los interpretamos? Además, ¿qué significa Split, RealCover y RealCover%? Tengo algunos parámetros extra aquí ¿Hay algún otro parámetro que pueda brindarme más información sobre las características …

1

3
Parámetros de Hypertuning XGBoost
XGBoost ha estado haciendo un gran trabajo cuando se trata de lidiar con variables dependientes categóricas y continuas. Pero, ¿cómo selecciono los parámetros optimizados para un problema de XGBoost? Así es como apliqué los parámetros para un problema reciente de Kaggle: param <- list( objective = "reg:linear", booster = "gbtree", …
27 r  python  xgboost 

2
LightGBM vs XGBoost
Estoy tratando de entender cuál es mejor (más preciso, especialmente en problemas de clasificación) He estado buscando artículos que comparan LightGBM y XGBoost pero encontré solo dos: https://medium.com/implodinggradients/benchmarking-lightgbm-how-fast-is-lightgbm-vs-xgboost-15d224568031 , que solo se trata de velocidad pero no de precisión. https://github.com/Microsoft/LightGBM/wiki/Experiments , que es de los autores de LightGBM y no …
25 xgboost 


4
¿XGBoost maneja la multicolinealidad por sí mismo?
Actualmente estoy usando XGBoost en un conjunto de datos con 21 características (seleccionadas de la lista de unas 150 características), luego las codifiqué para obtener ~ 98 características. Algunas de estas 98 características son algo redundantes, por ejemplo: una variable (característica) también aparece como BUNAAA yCsiUNABA\frac{B}{A} .doUNACA\frac{C}{A} Mis preguntas son: …






3
Pandas Dataframe a DMatrix
Estoy tratando de ejecutar xgboost en scikit learn. Y solo uso Pandas para cargar datos en el marco de datos. ¿Cómo se supone que debo usar pandas df con xgboost? Estoy confundido por la rutina DMatrix requerida para ejecutar xgboost algo.

1
XGBRegressor vs xgboost.train gran diferencia de velocidad?
Si entreno a mi modelo con el siguiente código: import xgboost as xg params = {'max_depth':3, 'min_child_weight':10, 'learning_rate':0.3, 'subsample':0.5, 'colsample_bytree':0.6, 'obj':'reg:linear', 'n_estimators':1000, 'eta':0.3} features = df[feature_columns] target = df[target_columns] dmatrix = xg.DMatrix(features.values, target.values, feature_names=features.columns.values) clf = xg.train(params, dmatrix) termina en aproximadamente 1 minuto. Si entreno mi modelo usando el método …

1
Importancia de la característica con características categóricas de alta cardinalidad para la regresión (variable de representación numérica)
Intenté usar las características de las características de los bosques aleatorios para realizar una selección empírica de características para un problema de regresión donde todas las características son categóricas y muchas de ellas tienen muchos niveles (del orden de 100-1000). Dado que la codificación única crea una variable ficticia para …

Al usar nuestro sitio, usted reconoce que ha leído y comprende nuestra Política de Cookies y Política de Privacidad.
Licensed under cc by-sa 3.0 with attribution required.