Estoy tratando de entender cómo funciona XGBoost. Ya entiendo cómo funcionan los árboles impulsados por gradiente en Python sklearn. Lo que no está claro para mí es si XGBoost funciona de la misma manera, pero más rápido, o si hay diferencias fundamentales entre él y la implementación de Python.
Cuando leo este artículo
http://learningsys.org/papers/LearningSys_2015_paper_32.pdf
Me parece que el resultado final que sale de XGboost es el mismo que en la implementación de Python, sin embargo, la principal diferencia es cómo XGboost encuentra la mejor división para hacer en cada árbol de regresión.
Básicamente, XGBoost da el mismo resultado, pero es más rápido.
¿Es esto correcto o hay algo más que me estoy perdiendo?