Mi pregunta principal es con respecto a tratar de entender cómo encaja la validación cruzada k-fold en el contexto de tener conjuntos de capacitación / validación / prueba (si cabe en ese contexto).
Por lo general, las personas hablan de dividir los datos en un conjunto de entrenamiento, validación y prueba, digamos en una proporción de 60/20/20 por curso de Andrew Ng, por lo que el conjunto de validación se usa para identificar parámetros óptimos para el entrenamiento modelo.
Sin embargo, si uno quisiera usar la validación cruzada k-fold con la esperanza de obtener una medida de precisión más representativa cuando la cantidad de datos es relativamente pequeña, ¿qué implica la validación cruzada k-fold exactamente en esta división 60/20/20? ¿guión?
Por ejemplo, ¿eso significaría que realmente combinaríamos los conjuntos de entrenamiento y prueba (80% de los datos) y realizaríamos una validación cruzada en ellos para obtener nuestra medida de precisión (descartando efectivamente tener un 'conjunto de prueba' explícito)? Si es así, ¿qué modelo entrenado usamos a) en producción, yb) para usar contra el conjunto de validación e identificar parámetros de entrenamiento óptimos? Por ejemplo, una posible respuesta para a y b es quizás usar el modelo de mejor pliegue.