La razón principal es que el estimador de validación cruzada k-fold tiene una varianza menor que un estimador de conjunto de retención único, lo que puede ser muy importante si la cantidad de datos disponibles es limitada. Si tiene un único conjunto de retención, donde el 90% de los datos se utilizan para el entrenamiento y el 10% para las pruebas, el conjunto de pruebas es muy pequeño, por lo que habrá una gran variación en la estimación del rendimiento para diferentes muestras de datos, o para diferentes particiones de los datos para formar conjuntos de entrenamiento y prueba. La validación de k-fold reduce esta variación promediando k diferentes particiones, por lo que la estimación del rendimiento es menos sensible a la partición de los datos. Puede ir aún más lejos mediante la validación cruzada repetida k-fold, donde la validación cruzada se realiza utilizando diferentes particiones de los datos para formar k subconjuntos,
Sin embargo, tenga en cuenta que todos los pasos del procedimiento de ajuste del modelo (selección del modelo, selección de características, etc.) deben realizarse de forma independiente en cada pliegue del procedimiento de validación cruzada, o la estimación del rendimiento resultante se sesgará de manera optimista.