¿Cuáles son las aplicaciones o ventajas de las técnicas de regresión de reducción de dimensiones (DRR) o de reducción supervisada de dimensionalidad (SDR) sobre las técnicas de regresión tradicionales (sin ninguna reducción de dimensionalidad)? Esta clase de técnicas encuentra una representación de baja dimensión del conjunto de características para el problema de regresión. Los ejemplos de tales técnicas incluyen Regresión inversa en rodajas, Direcciones principales de arpillera, Estimación de la varianza promedio en rodajas, Regresión inversa en rodajas del núcleo, Regresión de componentes principales, etc.
En términos de RMSE con validación cruzada, si un algoritmo funcionó mejor en una tarea de regresión sin ninguna reducción de dimensionalidad, ¿cuál es el uso real de la reducción de dimensionalidad para la regresión? No entiendo el punto de estas técnicas.
¿Se utilizan estas técnicas por casualidad para reducir la complejidad de espacio y tiempo para la regresión? Si esa es la principal ventaja, serían útiles algunos recursos sobre la reducción de la complejidad para los conjuntos de datos de alta dimensión cuando se utilizan estas técnicas. Discuto esto con el hecho de que ejecutar una técnica DRR o SDR en sí requiere algo de tiempo y espacio. ¿Es esta regresión SDR / DRR + en un conjunto de datos de baja intensidad más rápido que solo la regresión en un conjunto de datos de alta intensidad?
¿Se ha estudiado esta configuración solo por interés abstracto y no tiene una buena aplicación práctica?
Como un pensamiento secundario: a veces hay suposiciones de que la distribución conjunta de las características y la respuesta encuentra en una variedad. Tiene sentido aprender la variedad de la muestra observada en este contexto para resolver un problema de regresión.Y