¿Cuándo no usar validación cruzada?


10

A medida que leo en el sitio, la mayoría de las respuestas sugieren que la validación cruzada debe hacerse en algoritmos de aprendizaje automático. Sin embargo, mientras leía el libro "Comprensión del aprendizaje automático", vi que hay un ejercicio que a veces es mejor no usar la validación cruzada. Estoy realmente confundido. ¿Cuándo el algoritmo de entrenamiento en todos los datos es mejor que la validación cruzada? ¿Sucede en conjuntos de datos reales?

Deje ser k clases de hipótesis. Supongamos que se le da IID la formación de ejemplos y que le gustaría aprender la clase . Considere dos enfoques alternativos:H1,...,HkmH=i=1kHi

  1. Aprenda en los ejemplos usando la regla ERMHm

  2. Divida los ejemplos m en un conjunto de entrenamiento de tamaño un conjunto de validación de tamaño , para algunos . Luego, aplique el enfoque de selección de modelo mediante validación. Es decir, primero entrene a cada clase en los ejemplos de entrenamiento usando la regla ERM con respecto a , y deje que sean las hipótesis resultantes . Segundo, aplique la regla ERM con respecto a la clase finita { } en los ejemplos de validación .(1α)mαmα(0,1)Hi(1α)mHih^1,,h^kh^1,,h^kαm

Describa escenarios en los que el primer método sea mejor que el segundo y viceversa.

Imagen de la quastion .


1
Es un ejercicio interesante, pero no estoy de acuerdo con la etiqueta. Creo que la validación cruzada está haciendo su trabajo perfectamente aquí. Como tangencial, sería preferible si escribiera el ejercicio y lo citara, en lugar de adjuntar una imagen. La imagen es inaccesible para los usuarios con discapacidad visual.
Matthew Drury el

Un posible inconveniente de usar la validación cruzada podría ser un ajuste excesivo (como en el caso de omitir una validación cruzada). Esencialmente, mediante el uso de técnicas de validación cruzada, estamos ajustando los parámetros del modelo en el conjunto de datos de validación (y no en el conjunto de datos de prueba). Pero a veces, esta afinación podría ser demasiado, resultando en un posible sobre ajuste cuando el clasificador se prueba en el conjunto de prueba.
Upendra Pratap Singh

1
¿Qué significa "paridad" aquí?
shadowtalker

@shadowtalker Creo que significa módulo de suma 2.
SMA.D

¿Distingue entre validación cruzada (repetida) y bootstrapping?
usεr11852

Respuestas:


11

Mensajes para llevar a casa:


Desafortunadamente, el texto que cita cambia dos cosas entre el enfoque 1 y 2:

  • Enfoque 2 realiza validación cruzada y selección / ajuste / optimización de modelos basados ​​en datos
  • El Enfoque 1 no utiliza validación cruzada ni selección / ajuste / optimización de modelos basados ​​en datos.
  • El enfoque 3 de validación cruzada sin selección / ajuste / optimización del modelo basado en datos es perfectamente factible (en mi humilde opinión, en mi humilde opinión conduciría a una mayor comprensión) en el contexto discutido aquí
  • Enfoque 4, sin validación cruzada, pero también es posible la selección / ajuste / optimización del modelo basado en datos, pero es más complejo de construir.

En mi humilde opinión, la validación cruzada y la optimización basada en datos son dos decisiones totalmente diferentes (y en gran medida independientes) al configurar su estrategia de modelado. La única conexión es que puede usar estimaciones de validación cruzada como objetivo funcional para su optimización. Pero existen otros objetivos funcionales listos para ser utilizados, y hay otros usos de las estimaciones de validación cruzada (lo más importante, puede usarlos para la verificación de su modelo, también conocido como validación o prueba)

Desafortunadamente, la terminología de aprendizaje automático es, en mi humilde opinión, un desastre que sugiere conexiones / causas / dependencias falsas aquí.

  • Cuando busca el enfoque 3 (validación cruzada no para la optimización sino para medir el rendimiento del modelo), encontrará que la validación cruzada de "decisión" frente al entrenamiento en todo el conjunto de datos es una falsa dicotomía en este contexto: cuando se usa la validación cruzada Para medir el rendimiento del clasificador, la figura de mérito de validación cruzada se utiliza como estimación para un modelo entrenado en todo el conjunto de datos. Es decir, el enfoque 3 incluye el enfoque 1.

  • Ahora, veamos la segunda decisión: la optimización del modelo basado en datos o no. Este es, en mi humilde opinión, el punto crucial aquí. Y sí, hay situaciones del mundo real en las que no es mejor optimizar el modelo basado en datos. La optimización del modelo basada en datos tiene un costo. Puede pensarlo de esta manera: la información en su conjunto de datos se usa para estimar no solo lapparámetros / coeficientes del modelo, pero lo que hace la optimización es estimar parámetros adicionales, los llamados hiperparámetros. Si describe el proceso de ajuste y optimización / ajuste del modelo como una búsqueda de los parámetros del modelo, entonces esta optimización de hiperparámetro significa que se considera un espacio de búsqueda mucho mayor. En otras palabras, en el enfoque 1 (y 3) restringe el espacio de búsqueda especificando esos hiperparámetros. Su conjunto de datos del mundo real puede ser lo suficientemente grande (contener suficiente información) para permitir el ajuste dentro de ese espacio de búsqueda restringido, pero no lo suficientemente grande como para fijar todos los parámetros suficientemente bien en el espacio de búsqueda más amplio de los enfoques 2 (y 4).

De hecho, en mi campo a menudo tengo que lidiar con conjuntos de datos demasiado pequeños para permitirme pensar en la optimización basada en datos. Entonces, ¿qué debo hacer? Utilizo mi conocimiento de dominio sobre los datos y los procesos de generación de datos para decidir qué modelo coincide bien con la naturaleza física de los datos y la aplicación. Y dentro de estos, todavía tengo que restringir la complejidad de mi modelo.


Buena respuesta. De alguna manera esperaba que hubieras contribuido a este hilo. Obvio +1
usεr11852

Gracias por su respuesta informativa y útil. Lo que aprendí de su respuesta es que podemos elegir el enfoque 2 cuando tenemos conjuntos de datos pequeños, no debido a la validación sino a la selección del modelo. ¿Estoy en lo correcto? ¿El uso de la selección de modelos para pequeños conjuntos de datos de alguna manera conduce a un ajuste insuficiente?
SMA.D

Otra pregunta es que en el ejercicio el tamaño de la clase de hipótesis es el mismo para los enfoques 1 y 2. ¿Cómo es el espacio de búsqueda más grande en ese caso para el enfoque 2?
SMA.D

Bueno, si hay una opción en 2 y no en 1, entonces el espacio de búsqueda en 2 es más grande. Si el espacio de búsqueda en 2 no es más grande, entonces realmente no hay nada que seleccionar en el enfoque 2. Mi respuesta e interpretación de lo que significa el enfoque 2 se desencadena por el término "selección de modelo mediante validación". Si el contexto sigue siendo el del ejercicio "cuándo falla la validación cruzada" antes del mencionado aquí, entonces el libro puede significar lo que llamé el enfoque 3 anterior, es decir, no hay selección de modelo involucrada. Pero en ese caso, las palabras selección de modelo realmente no deberían estar allí. No puedo juzgar qué tan probable es que esto ..
cbeleites descontentos con SX

... es que no sé qué dice el libro sobre la selección de modelos, ni cuál es su regla ERM (en mi vocabulario, ERM se expande a la gestión de riesgos empresariales ...). Sin embargo, mi respuesta se mantiene independientemente del algoritmo de modelado.
Cbeleites descontento con SX
Al usar nuestro sitio, usted reconoce que ha leído y comprende nuestra Política de Cookies y Política de Privacidad.
Licensed under cc by-sa 3.0 with attribution required.