La idea principal de k-Nearest-Neighbor tiene en cuenta los puntos más cercanos y decide la clasificación de los datos por mayoría de votos. Si es así, entonces no debería tener problemas en los datos de dimensiones superiores porque los métodos como el hashing sensible a la localidad pueden encontrar vecinos más cercanos de manera eficiente.
Además, la selección de funciones con redes bayesianas puede reducir la dimensión de los datos y facilitar el aprendizaje.
Sin embargo, este artículo de revisión de John Lafferty en aprendizaje estadístico señala que el aprendizaje no paramétrico en espacios de características de alta dimensión sigue siendo un desafío y está sin resolver.
¿Qué va mal?