¿Cuál es la diferencia entre 'Latencia' y 'Tiempo de ida y vuelta'?


14

La comunidad de Golang proporciona un sitio web de demostración HTTP / 2 para comparar el rendimiento entre HTTP 1.1 y HTTP / 2.

Podemos elegir diferentes latency, por ejemplo, latencia 0s, latencia 30 ms, latencia 200ms.

  1. ¿Es latencyuna terminología de la informática?
  2. Qué significa eso?
  3. ¿Cuál es la diferencia entre latencyy Round Trip Time?

ingrese la descripción de la imagen aquí


Esta pregunta y respuesta pueden ayudarlo a comprender.
Ron Maupin

¿Alguna respuesta te ayudó? Si es así, debe aceptar la respuesta para que la pregunta no siga apareciendo para siempre, buscando una respuesta.
Ron Maupin

Respuestas:


20

La latencia de red es el tiempo que tarda un elemento enviado desde un host de origen en llegar a un host de destino. La latencia tiene muchos componentes, y la latencia puede ser diferente de A a B y de B a A.

El tiempo de ida y vuelta es el tiempo que tarda una solicitud enviada desde una fuente a un destino y la respuesta para volver a la fuente original. Básicamente, la latencia en cada dirección, más el tiempo de procesamiento.


10

"Latencia" puede significar cosas diferentes. En general, es un retraso de algún tipo: la latencia de la aplicación es el tiempo de reacción de una aplicación (desde la entrada hasta la salida), la latencia de la red, la demora para obtener un paquete del punto A al B, etc.

El "tiempo de ida y vuelta" está más o menos bien definido como el retraso de la red desde el punto A al B y viceversa. Esta es la suma de todos los retrasos de codificación, colas, procesamiento, decodificación y propagación en ambas direcciones. Esencialmente, es la demora cuando A puede esperar una respuesta de B para una solicitud que requiere muy poco procesamiento.

Muy a menudo, el tiempo de ida y vuelta se compara con el tiempo de ping entre A y B. El tiempo de ping puede proporcionar un buen valor para el RTT efectivo, pero también podría ser otra cosa, debido a las posibles diferencias de enrutamiento y procesamiento entre los paquetes ICMP utilizados por ping y aquellos para los paquetes de protocolo realmente utilizados.

En su caso, "latencia" significa una demora artificial dentro del servidor HTTP que se agrega además de las demoras ya presentes. Por lo tanto, si tiene un tiempo de ida y vuelta efectivo de 50 ms para el servidor y selecciona "200 ms de latencia", puede esperar una respuesta a una solicitud dentro de los 250 ms (más la sobrecarga de procesamiento en el servidor).


4

Para agregar un poco de antecedentes a las otras respuestas, uno debe recordar que la latencia de la red puede variar significativamente y puede afectar la experiencia del usuario.

Una de las fuentes más obvias de latencia de red es la distancia: las señales que transportan sus datos viajan a más o menos la velocidad de la luz, por lo que cuanto mayor sea la distancia recorrida desde el cliente al servidor, mayor será la latencia. La comunicación entre dos computadoras unidas por un cable Ethernet tomará unos pocos milisegundos. La comunicación con un servidor a través de un océano llevará decenas o cientos de milisegundos. La comunicación que pasa por un satélite geoestacionario tomará cientos de milisegundos.

Esto es claramente visible cuando se hace un ping, que mide el tiempo de ida y vuelta, que en este caso está muy cerca de la suma de la latencia en ambas direcciones.

Algunas otras cosas que influyen en la latencia:

  • la cantidad de enlaces / saltos: en la mayoría de los casos, un paquete debe recibirse completamente antes de poder enviarse al siguiente enlace. Eso agrega un poco de latencia en cada salto;
  • el rendimiento de esos enlaces: cuanto más lento es el enlace, más tiempo tarda en pasar el paquete completo y, por lo tanto, se reenvía al siguiente enlace;
  • la carga de esos enlaces: si un enlace está lleno, es posible que el paquete deba ponerse en cola hasta que pueda enviarse;
  • para enlaces con retransmisión local, la tasa de error en el enlace: cuanto mayor sea la tasa de error, mayores serán las posibilidades de que el paquete deba reenviarse.

La latencia puede tener un fuerte efecto en la experiencia del usuario (o no):

  • El caso más conocido es la latencia que afecta a los jugadores de MMORPG y otros juegos en línea.
  • cualquier cosa interactiva donde la interacción se controla en el otro lado se ve afectada por la latencia. Telnet / ssh, escritorio remoto, se ven afectados por la latencia.
  • la comunicación de voz se ve afectada por la latencia, y con una alta latencia terminas con personas que se interrumpen entre sí todo el tiempo.
  • los protocolos de transferencia de archivos anteriores también sufrían de latencia, ya que no implementaban ventanas deslizantes, y el remitente tenía que esperar a que el paquete llegara al destino y al acuse de recibo antes de enviar el siguiente.

Incluso con casos no interactivos, la latencia puede tener un efecto (como se ilustra en el ejemplo del OP): cuando hay muchos archivos pequeños para descargar, la latencia puede generar un mayor tiempo de carga total si el protocolo tiene que esperar un archivo para descargarse completamente antes de comenzar la descarga del siguiente, en comparación con un protocolo que permitiría enviar múltiples solicitudes a la vez, y las respuestas se enviarían sin interrupción entre archivos sucesivos.


4

El tiempo de ida y vuelta (RTT) es el tiempo que tarda un paquete en pasar del punto final de envío al punto final de recepción y viceversa. Hay muchos factores que afectan a RTT, incluidos el retraso de propagación, el retraso de procesamiento, el retraso de espera y el retraso de codificación. Estos factores son generalmente constantes para un par dado de puntos finales de comunicación. Además, la congestión de la red puede agregar un componente dinámico a RTT.

¿Son RTT y ping iguales?

El tiempo de ida y vuelta y el tiempo de ping a menudo se consideran sinónimos. Si bien el tiempo de ping puede proporcionar una buena estimación de RTT, difiere en que la mayoría de las pruebas de ping se ejecutan dentro del protocolo de transporte utilizando paquetes ICMP. Por el contrario, RTT se mide en la capa de aplicación e incluye el retraso de procesamiento adicional producido por protocolos y aplicaciones de nivel superior (por ejemplo, HTTPS).

¿Qué pasa con RTT y la latencia de red?

La latencia de la red está estrechamente relacionada, pero es diferente a la RTT. La latencia es el tiempo que tarda un paquete en pasar del punto final de envío al punto final de recepción. Muchos factores pueden afectar la latencia de un servicio. La latencia no es explícitamente igual a la mitad de RTT, porque el retraso puede ser asimétrico entre dos puntos finales dados. RTT incluye retraso de procesamiento en el punto final de eco.

Echa un vistazo a esta publicación de blog en RTT para obtener más información.

Al usar nuestro sitio, usted reconoce que ha leído y comprende nuestra Política de Cookies y Política de Privacidad.
Licensed under cc by-sa 3.0 with attribution required.