Esta es una excelente pregunta, pero desafortunadamente (¿o quizás afortunadamente?) Recientemente he escrito una respuesta muy larga en un hilo relacionado , abordando su pregunta casi exactamente. Le pediría amablemente que mire allí y vea si eso responde a su pregunta.
Muy brevemente, si solo nos centramos en las cargas de PCA y FA W, entonces la diferencia es que PCA encuentra W para reconstruir la matriz de covarianza de muestra (o correlación) C Tan cerca como sea posible:
C≈WW⊤,
mientras que FA encuentra
Wpara reconstruir
la parte fuera de la diagonal de la matriz de covarianza (o correlación) solamente:
offdiag{C}≈WW⊤.
Con esto quiero decir que a FA no le importa qué valores
WW⊤ tiene en la diagonal, solo se preocupa por la parte fuera de la diagonal.
Con esto en mente, la respuesta a su pregunta se vuelve fácil de ver. Si el numeron de variables (tamaño de C) es grande, entonces la parte fuera de diagonal de C es casi toda la matriz (la diagonal tiene tamaño n y todo el tamaño de la matriz n2, entonces la contribución de la diagonal es solo 1/n→0), por lo que podemos esperar que PCA se aproxime bien a FA. Si los valores diagonales son bastante pequeños, entonces nuevamente no juegan mucho papel para PCA, y PCA termina estando cerca de FA, exactamente como @ttnphns dijo anteriormente.
Si, por otro lado, C es pequeño o está fuertemente dominado por la diagonal (en particular si tiene valores muy diferentes en la diagonal), entonces PCA tendrá que sesgar Whacia la reproducción de la diagonal también, y así terminará siendo bastante diferente de FA. Un ejemplo se da en este hilo:
p-m
últimos componentes principales: los que se caen en PCA (p
es el número de variables ym
es el número de componentes o factores que decidió extraer). Si