Estoy tratando de entender cómo entender completamente el proceso de decisión de un modelo de clasificación de árbol de decisión construido con sklearn. Los dos aspectos principales que estoy viendo son una representación gráfica del árbol y la lista de características importantes. Lo que no entiendo es cómo se determina la importancia de la característica en el contexto del árbol. Por ejemplo, aquí está mi lista de características importantes:
Clasificación de características: 1. CaracterísticaA (0.300237)
Característica B (0.166800)
Característica C (0.092472)
Característica D (0.075009)
CaracterísticaE (0.068310)
CaracterísticaF (0.067118)
CaracterísticaG (0.066510)
Característica H (0.043502)
Característica I (0.040281)
Característica J (0.039006)
FeatureK (0.032618)
Característica L (0.008136)
Característica M (0.000000)
Sin embargo, cuando miro la parte superior del árbol, se ve así:
De hecho, algunas de las características que están clasificadas como "más importantes" no aparecen hasta mucho más abajo en el árbol, y la parte superior del árbol es FeatureJ, que es una de las características de menor clasificación. Mi ingenua suposición sería que las características más importantes se clasificarían cerca de la parte superior del árbol para tener el mayor impacto. Si eso es incorrecto, ¿qué es lo que hace que una característica sea "importante"?