Preguntas etiquetadas con dimensionality-reduction

Se refiere a técnicas para reducir un gran número de variables o dimensiones abarcadas por los datos a un menor número de dimensiones, mientras se conserva la mayor cantidad de información posible sobre los datos. Los métodos más destacados incluyen PCA, MDS, Isomap, etc. Las dos principales subclases de técnicas: extracción de características y selección de características.

5
¿Cómo pueden los principales componentes principales retener el poder predictivo en una variable dependiente (o incluso conducir a mejores predicciones)?
Supongamos que yo estoy corriendo una regresión . ¿Por qué al seleccionar los principales componentes principales de , el modelo conserva su poder predictivo en ?Y∼XY∼XY \sim XkkkXXXYYY Entiendo que desde el punto de vista de reducción de dimensionalidad / selección de características, si son los vectores propios de la …


3
¿Debería la reducción de dimensionalidad para la visualización considerarse un problema "cerrado", resuelto por t-SNE?
He estado leyendo mucho sobre el algoritmo -snettt para la reducción de dimensionalidad. Estoy muy impresionado con el rendimiento en los conjuntos de datos "clásicos", como MNIST, donde logra una separación clara de los dígitos ( ver artículo original ): También lo he usado para visualizar las características aprendidas por …



1
t-SNE versus MDS
He estado leyendo algunas preguntas sobre t-SNE ( t-Distributed Stochastic Neighbor Embedded ) últimamente, y también visité algunas preguntas sobre MDS ( Multidimensional Scaling ). A menudo se usan de manera análoga, por lo que parecía una buena idea hacer esta pregunta, ya que aquí hay muchas preguntas sobre ambas …



4
¿Por qué los datos mixtos son un problema para los algoritmos de clustering basados ​​en euclides?
La mayoría de los algoritmos clásicos de agrupación y reducción de dimensionalidad (agrupación jerárquica, análisis de componentes principales, k-means, mapas autoorganizados ...) están diseñados específicamente para datos numéricos, y sus datos de entrada se ven como puntos en un espacio euclidiano. Por supuesto, este es un problema, ya que muchas …

1
Cómo LDA, una técnica de clasificación, también sirve como técnica de reducción de dimensionalidad como PCA
En este artículo , el autor vincula el análisis discriminante lineal (LDA) con el análisis de componentes principales (PCA). Con mi conocimiento limitado, no puedo seguir cómo LDA puede ser algo similar a PCA. Siempre he pensado que LDA era una forma de algoritmo de clasificación, similar a la regresión …





2
¿Cuándo combinamos la reducción de dimensionalidad con la agrupación?
Estoy intentando realizar la agrupación a nivel de documento. Construí la matriz de frecuencia de término-documento y estoy tratando de agrupar estos vectores de alta dimensión usando k-means. En lugar de agrupar directamente, lo que hice fue aplicar primero la descomposición vectorial singular de LSA (Análisis semántico latente) para obtener …

Al usar nuestro sitio, usted reconoce que ha leído y comprende nuestra Política de Cookies y Política de Privacidad.
Licensed under cc by-sa 3.0 with attribution required.