Estaba leyendo el material relacionado con XGBoost. Parece que este método no requiere ninguna escala variable ya que se basa en árboles y este puede capturar patrones complejos de no linealidad, interacciones. Y puede manejar variables numéricas y categóricas y también parece que las variables redundantes no afectan demasiado este método.
Por lo general, en el modelado predictivo, puede hacer una selección entre todas las funciones que tiene y también puede crear algunas funciones nuevas a partir del conjunto de funciones que tiene. Por lo tanto, seleccionar un subconjunto de características significa que cree que hay cierta redundancia en su conjunto de características; crear algunas características nuevas a partir del conjunto de características actual significa que realiza algunas transformaciones funcionales en sus características actuales. Entonces, estos dos puntos deben cubrirse en XGBoost. Entonces, ¿significa que para usar XGBoost, solo necesita elegir sabiamente esos parámetros de ajuste? ¿Cuál es el valor de hacer ingeniería de características usando XGBoost?