Friedman, Hastie y Tibshirani (2010) , citando Los elementos del aprendizaje estadístico , escriben:
A menudo usamos la regla de "un error estándar" cuando seleccionamos el mejor modelo; Esto reconoce el hecho de que las curvas de riesgo se estiman con error, por lo que se equivoca del lado de la parsimonia.
La razón para usar un error estándar, a diferencia de cualquier otra cantidad, parece ser porque es, bueno ... estándar. Krstajic, et al (2014) escriben (énfasis en negrita mío):
Breiman y col. [25] han encontrado en el caso de seleccionar el tamaño óptimo del árbol para los modelos de árbol de clasificación que el tamaño del árbol con un error mínimo de validación cruzada genera un modelo que generalmente se sobreajusta. Por lo tanto, en la Sección 3.4.3 de su libro Breiman et al. [25] define una regla de error estándar (1 regla SE) para elegir un tamaño de árbol óptimo, y lo implementan en todo el libro. Para calcular el error estándar para la validación cruzada de un pliegue en V, se necesita calcular la precisión para cada pliegue, y el error estándar se calcula a partir de las precisiones en V de cada pliegue. Hastie y col. [4] define la regla 1 SE como la selección del modelo más parsimonioso cuyo error no es más que un error estándar por encima del error del mejor modelo, y sugieren en varios lugares usar la regla 1 SE para el uso general de validación cruzada.El punto principal de la regla 1 SE, con la que estamos de acuerdo, es elegir el modelo más simple cuya precisión sea comparable con el mejor modelo .
λ