Hasta donde sé, al adoptar el Descenso de gradiente estocástico como algoritmo de aprendizaje, alguien usa 'epoch' para el conjunto de datos completo y 'batch' para los datos utilizados en un solo paso de actualización, mientras que otro usa 'batch' y 'minibatch' respectivamente, y los otros usan 'epoch' y 'minibatch'. Esto trae mucha confusión al discutir.
Entonces, ¿cuál es el dicho correcto? ¿O son solo dialectos que son todos aceptables?