Los métodos locales como K-NN tienen sentido en algunas situaciones.
Un ejemplo que hice en el trabajo escolar tenía que ver con predecir la resistencia a la compresión de varias mezclas de ingredientes de cemento. Todos estos ingredientes eran relativamente no volátiles con respecto a la respuesta o entre sí y KNN hizo predicciones confiables al respecto. En otras palabras, ninguna de las variables independientes tenía una variación desproporcionadamente grande para conferir al modelo individualmente o posiblemente por interacción mutua.
Tómelo con un grano de sal porque no conozco una técnica de investigación de datos que lo muestre de manera concluyente, pero intuitivamente parece razonable que si sus características tienen un grado proporcional de variaciones, no sé qué proporción, podría tener un Candidato KNN. Ciertamente me gustaría saber si hubo algunos estudios y técnicas resultantes desarrolladas a este efecto.
Si lo piensa desde una perspectiva de dominio generalizado, hay una amplia clase de aplicaciones en las que 'recetas' similares producen resultados similares. Ciertamente, esto parecía describir la situación de predecir los resultados de la mezcla de cemento. Diría que si tuviera datos que se comportaran de acuerdo con esta descripción y además su medida de distancia también fuera natural para el dominio en cuestión y, por último, que tuviera datos suficientes, me imagino que debería obtener resultados útiles de KNN u otro método local. .
También está obteniendo el beneficio de un sesgo extremadamente bajo cuando utiliza métodos locales. A veces, los modelos aditivos generalizados (GAM) equilibran el sesgo y la varianza ajustando cada variable individual usando KNN de manera que:
y^= f1( x1) + f2( x2) + ⋯ + fnorte( xnorte) + ϵ
Fnorte( xnorte)
No descartaría KNN tan rápido. Tiene su lugar.