En un curso de aprendizaje automático, aprendí que un uso común de PCA ( Análisis de componentes principales ) es acelerar otros algoritmos de aprendizaje automático. Por ejemplo, imagine que está entrenando un modelo de regresión logística. Si tiene un conjunto de entrenamiento para i de 1 a n y resulta que la dimensión de su vector x es muy grande (digamos dimensiones), usted puede usar PCA para obtener una dimensión más pequeña (digamos k dimensiones) con el vector de características z. Luego puede entrenar su modelo de regresión logística en el conjunto de entrenamiento para i de 1 a n. El entrenamiento de este modelo será más rápido porque su vector de características tiene menos dimensiones.
Sin embargo, no entiendo por qué no puede simplemente reducir la dimensión de su vector de características a k dimensiones simplemente eligiendo k de sus características al azar y eliminando el resto.
Los vectores z son combinaciones lineales de sus vectores de características. Dado que los vectores z están confinados a una superficie k-dimensional, puede escribir los valores de características ak eliminados como una función lineal de los k valores de características restantes, y así todas las z pueden formarse mediante combinaciones lineales de sus k características. Entonces, ¿no debería un modelo entrenado en un conjunto de entrenamiento con características eliminadas tener el mismo poder que un modelo entrenado en un conjunto de entrenamiento cuya dimensión se redujo por PCA? ¿Depende solo del tipo de modelo y de si se basa en algún tipo de combinación lineal?