Preguntas etiquetadas con pca

El análisis de componentes principales (PCA) es una técnica de reducción de dimensionalidad lineal. Reduce un conjunto de datos multivariado a un conjunto más pequeño de variables construidas, conservando tanta información (tanta varianza) como sea posible. Estas variables, llamadas componentes principales, son combinaciones lineales de las variables de entrada.



3
¿Tiene sentido el signo de puntajes o de cargas en PCA o FA? ¿Puedo revertir el signo?
Realicé el análisis de componentes principales (PCA) con R usando dos funciones diferentes ( prcompy princomp) y observé que las puntuaciones de PCA diferían en el signo. ¿Cómo puede ser? Considera esto: set.seed(999) prcomp(data.frame(1:10,rnorm(10)))$x PC1 PC2 [1,] -4.508620 -0.2567655 [2,] -3.373772 -1.1369417 [3,] -2.679669 1.0903445 [4,] -1.615837 0.7108631 [5,] -0.548879 …
37 r  pca  factor-analysis 

3
Linealidad de PCA
PCA se considera un procedimiento lineal, sin embargo: P C A (X) ≠ P C A ( X1) + P C A ( X2) + … + P C A ( Xnorte) ,PAGSdoUNA(X)≠PAGSdoUNA(X1)+PAGSdoUNA(X2)+...+PAGSdoUNA(Xnorte),\mathrm{PCA}(X)\neq \mathrm{PCA}(X_1)+\mathrm{PCA}(X_2)+\ldots+\mathrm{PCA}(X_n), donde . Esto quiere decir que los vectores propios obtenidos por los PCA en las matrices …
35 pca  linear 

3
PCA y la división tren / prueba
Tengo un conjunto de datos para el que tengo múltiples conjuntos de etiquetas binarias. Para cada conjunto de etiquetas, entreno a un clasificador, evaluándolo por validación cruzada. Quiero reducir la dimensionalidad utilizando el análisis de componentes principales (PCA). Mi pregunta es: ¿Es posible hacer el PCA una vez para todo …


1
¿Cuál es la razón intuitiva detrás de hacer rotaciones en Factor Analysis / PCA y cómo seleccionar la rotación adecuada?
Mis preguntas ¿Cuál es la razón intuitiva detrás de hacer rotaciones de factores en el análisis factorial (o componentes en PCA)? Según tengo entendido, si las variables se cargan casi por igual en los componentes (o factores) superiores, entonces obviamente es difícil diferenciar los componentes. Entonces, en este caso, se …





5
Detectando predictores significativos de muchas variables independientes
En un conjunto de datos de dos poblaciones no superpuestas (pacientes y sanos, total n = 60n=60n=60 ), me gustaría encontrar (de 300300300 variables independientes) predictores significativos para una variable dependiente continua. La correlación entre predictores está presente. Estoy interesado en averiguar si alguno de los predictores está relacionado con …

1
Reducción de dimensionalidad (SVD o PCA) en una matriz grande y dispersa
/ edit: Seguimiento adicional ahora puedes usar irlba :: prcomp_irlba / edit: siguiendo mi propio post. irlbaahora tiene argumentos de "centro" y "escala", que le permiten usarlo para calcular componentes principales, por ejemplo: pc <- M %*% irlba(M, nv=5, nu=0, center=colMeans(M), right_only=TRUE)$v Tengo una gran variedad Matrixde características que me …

3
Visualizando un millón, edición PCA
¿Es posible visualizar el resultado del análisis de componentes principales de manera que proporcione más información que solo tablas de resumen? ¿Es posible hacerlo cuando el número de observaciones es grande, digamos ~ 1e4? ¿Y es posible hacerlo en R [otros entornos bienvenidos]?

4
Cómo realizar una reducción de dimensionalidad con PCA en R
Tengo un gran conjunto de datos y quiero realizar una reducción de dimensionalidad. Ahora, en todas partes, leo que puedo usar PCA para esto. Sin embargo, todavía parece que no sé qué hacer después de calcular / realizar el PCA. En R esto se hace fácilmente con el comando princomp. …
30 r  pca 

Al usar nuestro sitio, usted reconoce que ha leído y comprende nuestra Política de Cookies y Política de Privacidad.
Licensed under cc by-sa 3.0 with attribution required.