si se observa matriz de datos e es variable latente
Donde es la media de los datos observados, y es el error / ruido gaussiano en los datos, y se llama subespacio principal.
Mi pregunta es cuando se usa PCA normal, obtendríamos un conjunto de vectores propios ortonormales para los cuales lo siguiente es cierto
Pero en PPCA, no es un vector ortonormal ni eigen. Entonces, ¿cómo puedo obtener los componentes principales de ?
Siguiendo mi instinto, busqué ppca en MATLAB, donde encontré esta línea:
En la convergencia, las columnas de W abarcan el subespacio, pero no son ortonormales. ppca obtiene los coeficientes ortonormales, coeff, para los componentes por ortogonalización de W.
He modificado el código PPCA un poco para conseguir la W , corrió y después de ortogonalización Me hizo llegar P de W .
¿Por qué esta ortogonalización dio vectores propios, a lo largo de los cuales se verá la mayor parte de la variación?
Supongo que la ortogonalización me está dando un conjunto de vectores ortogonales / ortonormales que abarcan el subespacio principal, pero ¿por qué esta matriz resultante ortogonalizada es igual a eigenmatrix (sé que eigenmatrix en pca también es ortonormal)? ¿Puedo suponer que el subespacio principal se extiende solo por un conjunto único de vectores ortonormales? En ese caso, ambos resultados coincidirán siempre.