Preguntas etiquetadas con dimensionality-reduction

Se refiere a técnicas para reducir un gran número de variables o dimensiones abarcadas por los datos a un menor número de dimensiones, mientras se conserva la mayor cantidad de información posible sobre los datos. Los métodos más destacados incluyen PCA, MDS, Isomap, etc. Las dos principales subclases de técnicas: extracción de características y selección de características.



1
R regresión lineal variable categórica valor "oculto"
Este es solo un ejemplo que he encontrado varias veces, por lo que no tengo ningún dato de muestra. Ejecutar un modelo de regresión lineal en R: a.lm = lm(Y ~ x1 + x2) x1Es una variable continua. x2es categórico y tiene tres valores, por ejemplo, "Bajo", "Medio" y "Alto". …
10 r  regression  categorical-data  regression-coefficients  categorical-encoding  machine-learning  random-forest  anova  spss  r  self-study  bootstrap  monte-carlo  r  multiple-regression  partitioning  neural-networks  normalization  machine-learning  svm  kernel-trick  self-study  survival  cox-model  repeated-measures  survey  likert  correlation  variance  sampling  meta-analysis  anova  independence  sample  assumptions  bayesian  covariance  r  regression  time-series  mathematical-statistics  graphical-model  machine-learning  linear-model  kernel-trick  linear-algebra  self-study  moments  function  correlation  spss  probability  confidence-interval  sampling  mean  population  r  generalized-linear-model  prediction  offset  data-visualization  clustering  sas  cart  binning  sas  logistic  causality  regression  self-study  standard-error  r  distributions  r  regression  time-series  multiple-regression  python  chi-squared  independence  sample  clustering  data-mining  rapidminer  probability  stochastic-processes  clustering  binary-data  dimensionality-reduction  svd  correspondence-analysis  data-visualization  excel  c#  hypothesis-testing  econometrics  survey  rating  composite  regression  least-squares  mcmc  markov-process  kullback-leibler  convergence  predictive-models  r  regression  anova  confidence-interval  survival  cox-model  hazard  normal-distribution  autoregressive  mixed-model  r  mixed-model  sas  hypothesis-testing  mediation  interaction 



1
¿Cuál es la diferencia entre aprendizaje múltiple y reducción de dimensionalidad no lineal?
¿Cuál es la diferencia entre aprendizaje múltiple y reducción de dimensionalidad no lineal ? He visto que estos dos términos se usan indistintamente. Por ejemplo: http://www.cs.cornell.edu/~kilian/research/manifold/manifold.html : El aprendizaje múltiple (a menudo también denominado reducción de dimensionalidad no lineal) persigue el objetivo de incrustar datos que originalmente se encuentran en …


2
Reducción de dimensión escalable
Teniendo en cuenta la cantidad constante de características, Barnes-Hut t-SNE tiene una complejidad de , las proyecciones aleatorias y PCA tienen una complejidad de hace "asequibles" para conjuntos de datos muy grandes.O(nlogn)O(nlog⁡n)O(n\log n)O(n)O(n)O(n) Por otro lado, los métodos que se basan en el escalamiento multidimensional tienen una complejidad .O(n2)O(n2)O(n^2) ¿Existen …

1
No se puede hacer que esta red de codificador automático funcione correctamente (con capas convolucionales y maxpool)
Las redes de autoencoder parecen ser mucho más difíciles que las redes MLP clasificadoras normales. Después de varios intentos de usar Lasagne, todo lo que obtengo en la salida reconstruida es algo que se asemeja en su mejor momento a un promedio borroso de todas las imágenes de la base …



4
Técnica no ortogonal análoga a la PCA
Supongamos que tengo un conjunto de datos de puntos 2D y quiero detectar las direcciones de todos los máximos locales de varianza en los datos, por ejemplo: PCA no ayuda en esta situación, ya que es una descomposición ortogonal y, por lo tanto, no puede detectar ambas líneas que indiqué …




Al usar nuestro sitio, usted reconoce que ha leído y comprende nuestra Política de Cookies y Política de Privacidad.
Licensed under cc by-sa 3.0 with attribution required.