Estaba viendo una presentación de un especialista de ML de un minorista importante, donde habían desarrollado un modelo para predecir eventos agotados.
Supongamos por un momento que con el tiempo, su modelo se vuelve muy preciso, ¿no sería de alguna manera "autodestructivo"? Es decir, si el modelo realmente funciona bien, entonces podrán anticipar eventos agotados y evitarlos, llegando finalmente a un punto en el que tengan pocos o ningún evento agotado. Pero si ese es el caso, no habrá suficientes datos históricos para ejecutar su modelo, o su modelo se descarrilará, porque los mismos factores causales que solían indicar un evento de desabastecimiento ya no lo hacen.
¿Cuáles son las estrategias para lidiar con tal escenario?
Además, uno podría imaginar la situación opuesta: por ejemplo, un sistema de recomendación podría convertirse en una "profecía autocumplida" con un aumento en las ventas de pares de artículos impulsados por la salida del sistema de recomendación, incluso si los dos artículos no son realmente tan relacionado.
Me parece que ambos son resultados de una especie de ciclo de retroalimentación que ocurre entre la salida del predictor y las acciones que se toman en base a él. ¿Cómo se puede lidiar con situaciones como esta?