Preguntas etiquetadas con svd

La descomposición del valor singular (SVD) de una matriz viene dada por donde y son matrices ortogonales y es una matriz diagonal. UNAUNA=USVUVS

2
¿Por qué no puedo obtener una SVD válida de X a través de la descomposición de valores propios de XX 'y X'X?
Estoy tratando de hacer SVD a mano: m<-matrix(c(1,0,1,2,1,1,1,0,0),byrow=TRUE,nrow=3) U=eigen(m%*%t(m))$vector V=eigen(t(m)%*%m)$vector D=sqrt(diag(eigen(m%*%t(m))$values)) U1=svd(m)$u V1=svd(m)$v D1=diag(svd(m)$d) U1%*%D1%*%t(V1) U%*%D%*%t(V) Pero la última línea no regresa m. ¿Por qué? Parece que tiene algo que ver con los signos de estos vectores propios ... ¿O entendí mal el procedimiento?
9 r  svd  eigenvalues 

1
Comprensión de la descomposición del valor singular en el contexto de LSI
Mi pregunta es generalmente sobre la descomposición del valor singular (SVD), y particularmente sobre la indexación semántica latente (LSI). Digamos que tengo que contiene frecuencias de 5 palabras para 7 documentos.UNAw o r d× do c u m e n tAword×document A_{word \times document} A = matrix(data=c(2,0,8,6,0,3,1, 1,6,0,1,7,0,1, 5,0,7,4,0,5,6, 7,0,8,5,0,8,5, …

1
Un paralelo entre LSA y pLSA
En el documento original de pLSA, el autor, Thomas Hoffman, establece un paralelismo entre las estructuras de datos de pLSA y LSA que me gustaría discutir con usted. Antecedentes: Inspirándose en la recuperación de información, supongamos que tenemos una colección de documentos y un vocabulario de términosNNND={d1,d2,....,dN}D={d1,d2,....,dN}D = \lbrace d_1, …




3
Cómo realizar SVD para imputar valores perdidos, un ejemplo concreto
He leído los excelentes comentarios sobre cómo lidiar con los valores perdidos antes de aplicar SVD, pero me gustaría saber cómo funciona con un ejemplo simple: Movie1 Movie2 Movie3 User1 5 4 User2 2 5 5 User3 3 4 User4 1 5 User5 5 1 5 Dada la matriz anterior, …
8 r  missing-data  data-imputation  svd  sampling  matlab  mcmc  importance-sampling  predictive-models  prediction  algorithms  graphical-model  graph-theory  r  regression  regression-coefficients  r-squared  r  regression  modeling  confounding  residuals  fitting  glmm  zero-inflation  overdispersion  optimization  curve-fitting  regression  time-series  order-statistics  bayesian  prior  uninformative-prior  probability  discrete-data  kolmogorov-smirnov  r  data-visualization  histogram  dimensionality-reduction  classification  clustering  accuracy  semi-supervised  labeling  state-space-models  t-test  biostatistics  paired-comparisons  paired-data  bioinformatics  regression  logistic  multiple-regression  mixed-model  random-effects-model  neural-networks  error-propagation  numerical-integration  time-series  missing-data  data-imputation  probability  self-study  combinatorics  survival  cox-model  statistical-significance  wilcoxon-mann-whitney  hypothesis-testing  distributions  normal-distribution  variance  t-distribution  probability  simulation  random-walk  diffusion  hypothesis-testing  z-test  hypothesis-testing  data-transformation  lognormal  r  regression  agreement-statistics  classification  svm  mixed-model  non-independent  observational-study  goodness-of-fit  residuals  confirmatory-factor  neural-networks  deep-learning 

1
SVD de una matriz de datos (PCA) después del suavizado
Digamos que tengo un n×mn×mn \times m matriz de datos centrada AAA con SVD A=UΣVTA=UΣVTA = U \Sigma V^{T}. Por ejemplo, m=50m=50m=50 columnas (medidas) que son espectros con n=100n=100n=100diferentes frecuencias La matriz está centrada de modo que las filas de la matriz tienen sus medias restadas. Esto es para interpretar …
8 pca  smoothing  svd 
Al usar nuestro sitio, usted reconoce que ha leído y comprende nuestra Política de Cookies y Política de Privacidad.
Licensed under cc by-sa 3.0 with attribution required.