Nota: El caso es n >> p
Estoy leyendo Elementos de aprendizaje estadístico y hay varias menciones sobre la forma "correcta" de hacer la validación cruzada (por ejemplo, página 60, página 245). Específicamente, mi pregunta es ¿cómo evaluar el modelo final (sin un conjunto de pruebas separado) usando k-fold CV o bootstrapping cuando ha habido una búsqueda de modelo? Parece que en la mayoría de los casos (algoritmos ML sin selección de funciones incorporadas) habrá
- Un paso de selección de características
- Un paso de selección de metaparámetro (por ejemplo, el parámetro de costo en SVM).
Mis preguntas:
- He visto que el paso de selección de características se puede hacer donde la selección de características se realiza en todo el conjunto de entrenamiento y se mantiene a un lado. Luego, usando k-fold CV, el algoritmo de selección de características se usa en cada pliegue (obteniendo diferentes características posiblemente elegidas cada vez) y promediando el error. Luego, usaría las características elegidas usando todos los datos (que se reservaron) para entrenar el modo final, pero usaría el error de la validación cruzada como una estimación del rendimiento futuro del modelo. ¿ES ESTO CORRECTO?
- Cuando utiliza la validación cruzada para seleccionar parámetros del modelo, ¿cómo calcular el rendimiento del modelo posteriormente? ¿ES EL MISMO PROCESO QUE EL NÚMERO 1 ARRIBA O DEBE USAR UN CV ANEXO COMO EL QUE SE MUESTRA EN LA PÁGINA 54 ( pdf ) O ALGO MÁS?
- Cuando realiza los dos pasos (configuración de características y parámetros) ..... ¿entonces qué hace? bucles anidados complejos?
- Si tiene una muestra de espera separada, ¿desaparece la preocupación y puede usar la validación cruzada para seleccionar características y parámetros (sin preocuparse ya que su estimación de rendimiento vendrá de un conjunto de espera)?