Interesante pregunta. Personalmente, no he visto eso para los productos que entran en producción, pero entiendo la lógica.
Teóricamente, cuantos más datos haya visto su modelo implementado, mejor debería generalizarse. Entonces, si entrenó al modelo en el conjunto completo de datos que tiene disponible, debería generalizar mejor que un modelo que solo vio, por ejemplo, conjuntos de entrenamiento / val (por ejemplo, ~ 90%) del conjunto de datos completo.
El problema con esto (¡y la razón por la que dividimos los datos en conjuntos de tren / val / prueba en primer lugar!) Es que queremos poder hacer afirmaciones estadísticas en cuanto a la precisión de los datos no vistos. Tan pronto como volvamos a entrenar un modelo nuevamente en todos los datos, ya no es posible hacer tales afirmaciones.
[Editar]
Aquí hay una pregunta relacionada sobre validación cruzada , donde la respuesta aceptada me hace puntos similares y menciona otras formas de hacer las cosas.
Hacemos un bucle:
- entrenar a un modelo
- evaluar el rendimiento en el conjunto de validación si es satisfactorio, vaya al paso 5→
- cambiar modelo
- ir al paso 1
- evaluar el rendimiento en el conjunto de prueba
- Presente modelo con precisión de prueba encontrada en el paso 5
Eventualmente, si logras obtener una excelente puntuación en el conjunto de pruebas, puedes afirmar que se generaliza bien. Por lo tanto, la pregunta de si volver a entrenar en el conjunto de datos completo mejorará el rendimiento en futuros datos no vistos no es estrictamente algo que pueda probar. La evidencia empírica de un mejor rendimiento en otros conjuntos de problemas relacionados sería la única fuente u orientación en el momento en que debe tomar la decisión.
Una verificación de cordura sería probar el modelo final reentrenado nuevamente en el conjunto de prueba original; esperando que obtenga un puntaje más alto que nunca cuando el modelo solo vio el conjunto de tren / val, porque realmente ha visto el conjunto de prueba durante el entrenamiento. Esto no me haría sentir 100% seguro de que este modelo final es superior en todos los casos futuros, pero al menos es tan bueno como puede ser con los datos dados.
Tal vez haya argumentos más rigurosos en contra de hacer lo que usted dice (probablemente académicamente motivado), sin embargo, ¡parece atractivo para aplicaciones prácticas!