En el aprendizaje computacional, el teorema de la NFL establece que no existe un alumno universal. Para cada algoritmo de aprendizaje, hay una distribución que hace que el alumno emite una hipotesis con un gran error, con alta probabilidad (aunque hay una hipotesis de bajo error). La conclusión es que para aprender, la clase de hipotesis o las distribuciones deben estar restringidas. En su libro "Una teoría probabilística del reconocimiento de patrones", Devroye et al prueban el siguiente teorema para el alumno vecino más cercano a K: