Tengo un script que convierte archivos de video y lo ejecuto en el servidor con datos de prueba y mido su tiempo time
. En resultado vi:
real 2m48.326s
user 6m57.498s
sys 0m3.120s
¿Por qué el tiempo real es mucho más bajo que el tiempo del usuario? ¿Tiene esto alguna conexión con multihilo? O que mas?
Editar: Y creo que ese script se estaba ejecutando alrededor de las 2m48
real
tiempo es el tiempo del reloj de pared como se explica a continuación (es decir, lo que mediríamos si tuviéramos un cronómetro)