Imagine que muestra una red neuronal una imagen de un león 100 veces y la etiqueta con "peligroso", para que aprenda que los leones son peligrosos.
Ahora imagine que anteriormente le mostró millones de imágenes de leones y, alternativamente, lo etiquetó como "peligroso" y "no peligroso", de modo que la probabilidad de que un león sea peligroso es del 50%.
Pero esas últimas 100 veces han llevado a la red neuronal a ser muy positiva al considerar al león como "peligroso", ignorando así el último millón de lecciones.
Por lo tanto, parece que hay una falla en las redes neuronales, en el sentido de que pueden cambiar de opinión demasiado rápido según la evidencia reciente. Especialmente si esa evidencia previa estaba en el medio.
¿Existe un modelo de red neuronal que haga un seguimiento de cuánta evidencia ha visto? (¿O sería esto equivalente a dejar que la tasa de aprendizaje disminuya en donde es el número de ensayos?)