Si entiendo la definición de precisión correctamente, la precisión (% de puntos de datos clasificados correctamente) es menos acumulativa que digamos MSE (error cuadrático medio). Es por eso que ves que tu loss
está aumentando rápidamente, mientras que la precisión fluctúa.
Intuitivamente, esto básicamente significa que una parte de los ejemplos se clasifica aleatoriamente , lo que produce fluctuaciones, ya que el número de conjeturas aleatorias correctas siempre fluctúa (imagine la precisión cuando la moneda siempre debe devolver "caras"). Básicamente, la sensibilidad al ruido (cuando la clasificación produce un resultado aleatorio) es una definición común de sobreajuste (ver wikipedia):
En estadística y aprendizaje automático, una de las tareas más comunes es ajustar un "modelo" a un conjunto de datos de entrenamiento, para poder hacer predicciones confiables sobre datos generales no entrenados. En el sobreajuste, un modelo estadístico describe error aleatorio o ruido en lugar de la relación subyacente
Otra evidencia de sobreajuste es que su pérdida está aumentando, la pérdida se mide con mayor precisión, es más sensible a la predicción ruidosa si no está aplastada por sigmoides / umbrales (que parece ser su caso para la pérdida en sí). Intuitivamente, puede imaginar una situación en la que la red está demasiado segura de la salida (cuando está mal), por lo que proporciona un valor muy alejado del umbral en caso de clasificación errónea aleatoria.
En cuanto a su caso, su modelo no está correctamente regularizado, posibles razones:
- no hay suficientes puntos de datos, demasiada capacidad
- ordenar
- no / escalado / normalización de características incorrectas
- ααα
Soluciones posibles:
- obtener más puntos de datos (o ampliar artificialmente el conjunto de los existentes)
- jugar con hiperparámetros (aumentar / disminuir capacidad o término de regularización, por ejemplo)
- regularización : intente abandonar, detener temprano, etc.