Preguntas etiquetadas con k-nearest-neighbour

Clasificadores de k-vecino más cercano Estos clasificadores se basan en la memoria y no requieren que se ajuste ningún modelo. Dado un punto de consulta x0, encontramos los k puntos de entrenamiento x (r), r = 1, ..., k más cercanos en distancia a x0, y luego clasificamos usando el voto mayoritario entre los k vecinos.


2
¿Cómo trazar el límite de decisión de un clasificador vecino k-más cercano de Elementos de aprendizaje estadístico?
Quiero generar la trama descrita en el libro ElemStatLearn "Los elementos del aprendizaje estadístico: minería de datos, inferencia y predicción. Segunda edición" de Trevor Hastie y Robert Tibshirani y Jerome Friedman. La trama es: Me pregunto cómo puedo producir este gráfico exacto R, especialmente tenga en cuenta los gráficos de …

1
Calcular la repetibilidad de los efectos de un modelo más antiguo
Acabo de encontrar este artículo , que describe cómo calcular la repetibilidad (también conocida como confiabilidad, también conocida como correlación intraclase) de una medición a través del modelado de efectos mixtos. El código R sería: #fit the model fit = lmer(dv~(1|unit),data=my_data) #obtain the variance estimates vc = VarCorr(fit) residual_var = …
28 mixed-model  reliability  intraclass-correlation  repeatability  spss  factor-analysis  survey  modeling  cross-validation  error  curve-fitting  mediation  correlation  clustering  sampling  machine-learning  probability  classification  metric  r  project-management  optimization  svm  python  dataset  quality-control  checking  clustering  distributions  anova  factor-analysis  exponential  poisson-distribution  generalized-linear-model  deviance  machine-learning  k-nearest-neighbour  r  hypothesis-testing  t-test  r  variance  levenes-test  bayesian  software  bayesian-network  regression  repeated-measures  least-squares  change-scores  variance  chi-squared  variance  nonlinear-regression  regression-coefficients  multiple-comparisons  p-value  r  statistical-significance  excel  sampling  sample  r  distributions  interpretation  goodness-of-fit  normality-assumption  probability  self-study  distributions  references  theory  time-series  clustering  econometrics  binomial  hypothesis-testing  variance  t-test  paired-comparisons  statistical-significance  ab-test  r  references  hypothesis-testing  t-test  normality-assumption  wilcoxon-mann-whitney  central-limit-theorem  t-test  data-visualization  interactive-visualization  goodness-of-fit 




1
Complejidad computacional k-NN
¿Cuál es la complejidad temporal del algoritmo k -NN con un enfoque de búsqueda ingenuo (sin árbol kd o similares)? Estoy interesado en su complejidad temporal considerando también el hiperparámetro k . He encontrado respuestas contradictorias: O (nd + kn), donde n es la cardinalidad del conjunto de entrenamiento yd …


3
Elegir K óptimo para KNN
Realicé un CV de 5 veces para seleccionar la K óptima para KNN. Y parece que cuanto más grande se hace K, más pequeño es el error ... Lo siento, no tenía una leyenda, pero los diferentes colores representan diferentes pruebas. Hay 5 en total y parece que hay poca …

2
¿Por qué necesita escalar datos en KNN?
¿Podría alguien explicarme por qué necesita normalizar los datos cuando usa K vecinos más cercanos? He intentado buscar esto, pero parece que todavía no puedo entenderlo. Encontré el siguiente enlace: https://discuss.analyticsvidhya.com/t/why-it-is-necessary-to-normalize-in-knn/2715 Pero en esta explicación, no entiendo por qué un rango mayor en una de las características afecta las predicciones.

1
¿La maldición de la dimensionalidad afecta a algunos modelos más que a otros?
Los lugares que he estado leyendo sobre la maldición de la dimensionalidad lo explican conjuntamente con kNN principalmente, y los modelos lineales en general. Regularmente veo a los mejores clasificados en Kaggle usando miles de características en el conjunto de datos que apenas tiene 100k puntos de datos. Utilizan principalmente …

5
Paquetes de imputación KNN R
Estoy buscando un paquete de imputación KNN. He estado mirando el paquete de imputación ( http://cran.r-project.org/web/packages/imputation/imputation.pdf ) pero, por alguna razón, la función de imputación KNN (incluso cuando se sigue el ejemplo de la descripción) solo parece para imputar valores cero (como se indica a continuación). He estado buscando pero …

4
Tratar con lazos, pesas y votar en kNN
Estoy programando un algoritmo kNN y me gustaría saber lo siguiente: Tie-breaks: ¿Qué sucede si no hay un ganador claro en la votación mayoritaria? Por ejemplo, todos los vecinos más cercanos k son de diferentes clases, o para k = 4 hay 2 vecinos de la clase A y 2 …

3
Estimadores de densidad de kernel adaptativos?
¿Alguien puede informar sobre su experiencia con un estimador de densidad de núcleo adaptativo? (Hay muchos sinónimos: adaptativo | variable | ancho variable, KDE | histograma | interpolador ...) La estimación de densidad de kernel variable dice "variamos el ancho del kernel en diferentes regiones del espacio muestral. Hay dos …


Al usar nuestro sitio, usted reconoce que ha leído y comprende nuestra Política de Cookies y Política de Privacidad.
Licensed under cc by-sa 3.0 with attribution required.