No sé si te refieres exactamente a esto, pero veo a muchas personas refiriéndose a Normalización que significa Normalización de datos. La estandarización está transformando sus datos, por lo que tiene una media 0 y una desviación estándar 1:
x <- (x - mean(x)) / sd(x)
También veo personas que usan el término Normalización para el escalado de datos, como al transformar sus datos en un rango de 0-1:
x <- (x - min(x)) / (max(x) - min(x))
¡Puede ser confuso!
Ambas técnicas tienen sus pros y sus contras. Al escalar un conjunto de datos con demasiados valores atípicos, sus datos no atípicos pueden terminar en un intervalo muy pequeño. Entonces, si su conjunto de datos tiene demasiados valores atípicos, puede considerar estandarizarlo. No obstante, cuando lo haga, terminará con datos negativos (a veces no lo desea) y datos ilimitados (es posible que tampoco lo desee).