No elige un subconjunto de sus 99 (100-1) variables originales.
Cada uno de los componentes principales son combinaciones lineales de las 99 variables predictoras (variables x, IV, ...). Si usa los primeros 40 componentes principales, cada uno de ellos es una función de las 99 variables predictoras originales. (Al menos con PCA ordinario, hay versiones dispersas / regularizadas como el SPCA de Zou, Hastie y Tibshirani que producirán componentes basados en menos variables).
Considere el caso simple de dos variables positivamente correlacionadas, que por simplicidad asumiremos que son igualmente variables. Entonces, el primer componente principal será un múltiplo (fraccionario) de la suma de ambas variables y el segundo será un múltiplo (fraccionario) de la diferencia de las dos variables; Si los dos no son igualmente variables, el primer componente principal pesará más al uno más variable, pero aún involucrará a ambos.
yX
Luego usa sus 40 nuevas variables como si fueran predictores por derecho propio, tal como lo haría con cualquier problema de regresión múltiple. (En la práctica, hay formas más eficientes de obtener las estimaciones, pero dejemos de lado los aspectos computacionales y tratemos con una idea básica)
Con respecto a su segunda pregunta, no está claro qué quiere decir con "reversión del PCA".
XZ= XWXn × 99W99 × 4040y^= Zβ^ordenador personal
y^= Zβ^ordenador personal= XWβ^ordenador personal= Xβ^∗β^∗= Wβ^ordenador personalyX. No es lo mismo que los coeficientes que obtienes al estimar una regresión en las X originales, por supuesto, se regulariza haciendo el PCA; aunque obtendrías coeficientes para cada una de tus X originales de esta manera, solo tienen el df de la cantidad de componentes que montaste.
Ver también Wikipedia sobre regresión de componentes principales .