Leí una y otra vez que la validación cruzada "Leave-one-out" tiene una gran variación debido a la gran superposición de los pliegues de entrenamiento. Sin embargo, no entiendo por qué es así: ¿no debería ser el rendimiento de la validación cruzada muy estable (baja variación) exactamente porque los conjuntos de entrenamiento son casi idénticos? ¿O estoy entendiendo mal el concepto de "varianza" por completo?
Tampoco entiendo completamente cómo LOO puede ser imparcial, pero tener una gran variación. Si la estimación de LOO es igual al valor real del estimador en la expectativa, ¿cómo puede tener una varianza alta?
Nota: Sé que aquí hay una pregunta similar: ¿por qué la varianza de validación cruzada de dejar-fuera-fuera (LOOCV) acerca de la estimación media del error es alta? Sin embargo, la persona que ha respondido dice más adelante en los comentarios que, a pesar de los votos positivos, se ha dado cuenta de que su respuesta es incorrecta.