Preguntas etiquetadas con k-nearest-neighbour

Clasificadores de k-vecino más cercano Estos clasificadores se basan en la memoria y no requieren que se ajuste ningún modelo. Dado un punto de consulta x0, encontramos los k puntos de entrenamiento x (r), r = 1, ..., k más cercanos en distancia a x0, y luego clasificamos usando el voto mayoritario entre los k vecinos.

1
Kernelised k Vecino más cercano
Soy nuevo en kernels y he encontrado un inconveniente al intentar kernelise kNN. Preliminares Estoy usando un polinomio núcleo: K( X , y ) = ( 1 + ⟨ x , y ⟩ )reK(x,y)=(1+⟨x,y⟩)dK(\mathbf{x},\mathbf{y}) = (1 + \langle \mathbf{x},\mathbf{y} \rangle)^d Su kNN euclidiano típico utiliza la siguiente métrica de distancia: …



1
Pros de Jeffries Matusita distancia
Según algún artículo que estoy leyendo, la distancia de Jeffries y Matusita se usa comúnmente. Pero no pude encontrar mucha información al respecto, excepto la fórmula a continuación JMD (x, y) = ∑(xi−−√2−yi−−√2)2−−−−−−−−−−−−−√2∑(xi2−yi2)22\sqrt[2]{\sum(\sqrt[2]{x_i}-\sqrt[2]{y_i})^2} Es similar a la distancia euclidiana, excepto por la raíz cuadrada E (x, y) = ∑(xi−yi)2−−−−−−−−−−√2∑(xi−yi)22\sqrt[2]{\sum(x_i-y_i)^2} Se …





3
¿Por qué KNN no está "basado en modelos"?
El capítulo 2.4 de ESL parece clasificar la regresión lineal como "basada en el modelo", porque supone que , mientras que no se establece una aproximación similar para los vecinos k más cercanos. ¿Pero no están ambos métodos haciendo suposiciones sobre ?f(x)≈x⋅βf(x)≈x⋅βf(x) \approx x\cdot\betaf(x)f(x)f(x) Más adelante en 2.4 incluso dice: …

4
Dada una cadena 10D MCMC, ¿cómo puedo determinar sus modos posteriores en R?
Pregunta: Con una cadena MCMC de 10 dimensiones, digamos que estoy preparado para entregarle una matriz de los sorteos: 100,000 iteraciones (filas) por 10 parámetros (columnas), ¿cómo puedo identificar los modos posteriores? Me preocupan especialmente los modos múltiples. Antecedentes:Me considero un experto en informática, pero cuando un colega me hizo …

1
Ayuda a entender kNN para datos multidimensionales
Entiendo la premisa del algoritmo kNN para datos espaciales. Y sé que puedo extender ese algoritmo para usarlo en cualquier variable de datos continua (o datos nominales con Hamming Distance). Sin embargo, ¿qué estrategias se utilizan cuando se trata con datos de dimensiones superiores? Por ejemplo, supongamos que tengo una …


3
KNN: 1 vecino más cercano
Mi pregunta es sobre el clasificador vecino más cercano y sobre una declaración hecha en el excelente libro The Elements of Statistical Learning, de Hastie, Tibshirani y Friedman. La declaración es (p. 465, sección 13.3): "Debido a que usa solo el punto de entrenamiento más cercano al punto de consulta, …


Al usar nuestro sitio, usted reconoce que ha leído y comprende nuestra Política de Cookies y Política de Privacidad.
Licensed under cc by-sa 3.0 with attribution required.