Creo que las respuestas anteriores hacen un buen trabajo al hacer puntos importantes:
- Los modelos parsimoniosos tienden a tener mejores características de generalización.
- La parsimonia no es realmente un estándar de oro, sino solo una consideración.
Quiero agregar algunos comentarios que surgen de mi experiencia laboral diaria.
La generalización del argumento de precisión predictiva es, por supuesto, fuerte, pero tiene un sesgo académico en su enfoque. En general, cuando se produce un modelo estadístico, las economías no son tales que el desempeño predictivo sea una consideración completamente dominante. Muy a menudo hay grandes limitaciones externas sobre cómo se ve un modelo útil para una aplicación determinada:
- El modelo debe ser implementable dentro de un marco o sistema existente.
- El modelo debe ser entendible por una entidad no técnica.
- El modelo debe ser eficiente computacionalmente.
- El modelo debe ser documentable .
- El modelo debe pasar restricciones regulatorias .
En los dominios de aplicaciones reales, muchas de estas consideraciones, si no todas, vienen antes , no después , del rendimiento predictivo, y la optimización de la forma y los parámetros del modelo está limitada por estos deseos. Cada una de estas restricciones predispone al científico hacia la parsimonia.
Puede ser cierto que en muchos dominios estas restricciones se están eliminando gradualmente. Pero es el científico afortunado el que los ignora y se centra exclusivamente en minimizar el error de generalización.
Esto puede ser muy frustrante para los científicos por primera vez, recién salidos de la escuela (definitivamente fue para mí, y sigue siéndolo cuando siento que las limitaciones impuestas a mi trabajo no están justificadas). Pero al final, trabajar duro para producir un producto inaceptable es un desperdicio, y eso se siente peor que el aguijón de su orgullo científico.