Vi los libros de Vapnik sobre aprendizaje estadístico ... Leí los primeros capítulos. De todos modos, lo que más me sorprendió fue que pensó que la navaja de afeitar de Occam era obsoleta.
Pensé que estaba relacionado con la situación en la que asumir una dimensión más alta mejora significativamente el ajuste.
¿Estoy entendido bien? ¿Es cierto que la navaja de afeitar de Occam ya no puede ser correcta como dijo Vapnik?
¿Hay algún argumento de que la navaja de afeitar de Occam no debe considerarse como la predeterminada?
Las oraciones exactas provienen del Prefacio a la Segunda Edición de La naturaleza del aprendizaje estadístico , que son:
Los años transcurridos desde la primera edición del libro también han cambiado la filosofía general en nuestra comprensión de la naturaleza del problema de inducción. Después de muchos experimentos exitosos con SVM, los investigadores se volvieron más decididos a criticar la filosofía clásica de generalización basada en el principio de la navaja de afeitar de Occam ".
Desearía que alguien pudiera explicar las críticas sobre la navaja de afeitar de Occam.