Mi pregunta es sobre el clasificador vecino más cercano y sobre una declaración hecha en el excelente libro The Elements of Statistical Learning, de Hastie, Tibshirani y Friedman. La declaración es (p. 465, sección 13.3):
"Debido a que usa solo el punto de entrenamiento más cercano al punto de consulta, el sesgo de la estimación del vecino más cercano a menudo es bajo, pero la varianza es alta".
El libro está disponible en
http://www-stat.stanford.edu/~tibs/ElemStatLearn/download.html
Para empezar, podemos definir qué sesgo y varianza son. De la pregunta "cómo-puede-aumentar-la-dimensión-aumentar-la-varianza-sin-aumentar-la-bi" , tenemos que:
"En primer lugar, el sesgo de un clasificador es la discrepancia entre su función promedio estimada y verdadera, mientras que la varianza de un clasificador es la divergencia esperada de la función de predicción estimada de su valor promedio (es decir, qué tan dependiente es el clasificador del azar) muestreo realizado en el conjunto de entrenamiento).
Por lo tanto, la presencia de sesgo indica algo básicamente incorrecto con el modelo, mientras que la varianza también es mala, pero un modelo con alta varianza podría al menos predecir bien en promedio ".
¿Podría alguien explicar por qué la varianza es alta y el sesgo es bajo para el clasificador vecino más cercano?