Creo que son 2 cosas diferentes,
Comencemos con la Selección de funciones :
Esta técnica se utiliza para seleccionar las características que explican la mayor parte de la variable objetivo (tiene una correlación con la variable objetivo). Esta prueba se ejecuta justo antes de que el modelo se aplique a los datos.
Para explicarlo mejor, veamos un ejemplo: hay 10 características y 1 variable objetivo, 9 características explican el 90% de la variable objetivo y 10 características juntas explican el 91% de la variable objetivo. Por lo tanto, la variable 1 no está haciendo una gran diferencia, por lo que tiende a eliminarla antes de modelar (también es subjetiva para el negocio). También se me puede llamar como Predictor Importance.
Ahora hablemos de la extracción de características ,
Que se utiliza en el aprendizaje no supervisado, extracción de contornos en imágenes, extracción de bi-gramos de un texto, extracción de fonemas de la grabación de texto hablado. Cuando no sabe nada sobre los datos, como ningún diccionario de datos, demasiadas características, lo que significa que los datos no están en un formato comprensible. Luego intente aplicar esta técnica para obtener algunas características que explican la mayor parte de los datos. La extracción de características implica una transformación de las características, que a menudo no es reversible porque parte de la información se pierde en el proceso de reducción de dimensionalidad.
Puede aplicar Extracción de características en los datos dados para extraer características y luego aplicar Selección de características con respecto a la Variable de destino para seleccionar el subconjunto que puede ayudar a hacer un buen modelo con buenos resultados.
puede pasar por estos Link-1 , Link-2 para una mejor comprensión.
podemos implementarlos en R, Python, SPSS.
avíseme si necesita más aclaraciones.