Preguntas etiquetadas con pca

El análisis de componentes principales (PCA) es una técnica de reducción de dimensionalidad lineal. Reduce un conjunto de datos multivariado a un conjunto más pequeño de variables construidas, conservando tanta información (tanta varianza) como sea posible. Estas variables, llamadas componentes principales, son combinaciones lineales de las variables de entrada.






1
¿Es posible la PCA a gran escala?
La forma clásica del análisis de componentes principales (PCA) es hacerlo en una matriz de datos de entrada cuyas columnas tienen media cero (entonces PCA puede "maximizar la varianza"). Esto se puede lograr fácilmente centrando las columnas. Sin embargo, cuando la matriz de entrada es escasa, la matriz centrada ahora …




1
Confundido acerca de la explicación visual de los vectores propios: ¿cómo pueden los conjuntos de datos visualmente diferentes tener los mismos vectores propios?
Muchos libros de texto de estadísticas proporcionan una ilustración intuitiva de cuáles son los vectores propios de una matriz de covarianza: Los vectores u y z forman los vectores propios (bueno, los propios). Esto tiene sentido. Pero lo único que me confunde es que extraemos vectores propios de la matriz …

2
¿Cuáles son buenas métricas para evaluar la calidad de un ajuste de PCA para seleccionar el número de componentes?
¿Cuál es una buena métrica para evaluar la calidad del análisis de componentes principales (PCA)? Realicé este algoritmo en un conjunto de datos. Mi objetivo era reducir la cantidad de funciones (la información era muy redundante). Sé que el porcentaje de variación mantenido es un buen indicador de la cantidad …


1
¿Cómo interpretar este biplot de PCA proveniente de una encuesta de qué áreas están interesadas las personas?
Antecedentes: le pregunté a cientos de participantes en mi encuesta cuánto están interesados ​​en áreas seleccionadas (en escalas Likert de cinco puntos con 1 que indica "no interesado" y 5 que indica "interesado"). Entonces probé PCA. La siguiente imagen es una proyección de los dos primeros componentes principales. Los colores …

3
Elegir el número de componentes principales para retener
Un método que me sugirieron es mirar un diagrama de pantalla y verificar el "codo" para determinar la cantidad correcta de PC a usar. Pero si el gráfico no está claro, ¿tiene R un cálculo para determinar el número? fit <- princomp(mydata, cor=TRUE)
10 r  pca 

1
¿Por qué Anova () y drop1 () proporcionaron diferentes respuestas para GLMM?
Tengo un GLMM de la forma: lmer(present? ~ factor1 + factor2 + continuous + factor1*continuous + (1 | factor3), family=binomial) Cuando lo uso drop1(model, test="Chi"), obtengo resultados diferentes a los que uso Anova(model, type="III")del paquete del automóvil o summary(model). Estos dos últimos dan las mismas respuestas. Usando un montón de …
10 r  anova  glmm  r  mixed-model  bootstrap  sample-size  cross-validation  roc  auc  sampling  stratification  random-allocation  logistic  stata  interpretation  proportion  r  regression  multiple-regression  linear-model  lm  r  cross-validation  cart  rpart  logistic  generalized-linear-model  econometrics  experiment-design  causality  instrumental-variables  random-allocation  predictive-models  data-mining  estimation  contingency-tables  epidemiology  standard-deviation  mean  ancova  psychology  statistical-significance  cross-validation  synthetic-data  poisson-distribution  negative-binomial  bioinformatics  sequence-analysis  distributions  binomial  classification  k-means  distance  unsupervised-learning  euclidean  correlation  chi-squared  spearman-rho  forecasting  excel  exponential-smoothing  binomial  sample-size  r  change-point  wilcoxon-signed-rank  ranks  clustering  matlab  covariance  covariance-matrix  normal-distribution  simulation  random-generation  bivariate  standardization  confounding  z-statistic  forecasting  arima  minitab  poisson-distribution  negative-binomial  poisson-regression  overdispersion  probability  self-study  markov-process  estimation  maximum-likelihood  classification  pca  group-differences  chi-squared  survival  missing-data  contingency-tables  anova  proportion 

Al usar nuestro sitio, usted reconoce que ha leído y comprende nuestra Política de Cookies y Política de Privacidad.
Licensed under cc by-sa 3.0 with attribution required.