¿Cuánta latencia de red es "típica" para la costa este - oeste de los Estados Unidos?


107

En este momento estamos tratando de decidir si trasladamos nuestro centro de datos de la costa oeste a la costa este.

Sin embargo, estoy viendo algunos números de latencia inquietantes desde mi ubicación en la costa oeste hasta la costa este. Aquí hay un resultado de muestra, recuperando un pequeño archivo de logotipo .png en Google Chrome y usando las herramientas de desarrollo para ver cuánto tiempo tarda la solicitud:

  • Costa oeste a costa este:
    215 ms de latencia, 46 ms de tiempo de transferencia, 261 ms en total
  • Costa oeste a costa oeste:
    latencia de 114 ms, tiempo de transferencia de 41 ms, total de 155 ms

Tiene sentido que Corvallis, OR esté geográficamente más cerca de mi ubicación en Berkeley, CA, por lo que espero que la conexión sea un poco más rápida ... pero veo un aumento en la latencia de + 100 ms cuando realizo la misma prueba en Nueva York. servidor. Eso parece ... excesivo para mí. Particularmente porque el tiempo dedicado a transferir los datos reales solo aumentó un 10%, ¡pero la latencia aumentó un 100%!

Eso se siente ... mal ... para mí.

Encontré algunos enlaces aquí que fueron útiles (¡a través de Google, nada menos!) ...

... pero nada autoritario.

Entonces, ¿es esto normal? No se siente normal. ¿Cuál es la latencia "típica" que debo esperar al mover paquetes de red desde la costa este <--> costa oeste de los Estados Unidos?


10
Cualquier medida en redes que no controlas parece casi inútil. Con demasiada frecuencia en este tipo de discusiones de red parece que olvidamos que hay un componente temporal asociado con cada paquete. Si ejecutó la prueba repetidamente 24 x 7 y llegó a alguna conclusión, eso es una cosa. Si ejecutó la prueba dos veces, le sugiero que la ejecute un poco más. Y para aquellos que abogan por el uso del ping como una medida de rendimiento, no lo hagan. En cada red principal en la que trabajé, configuramos el tráfico ICMP con la prioridad más baja. Ping significa solo una cosa, y no es;) sobre el rendimiento.
dbasnett

Desde donde vivo, Jefferson City, MO, los tiempos son similares.
dbasnett

44
Como nota al margen: la luz en sí misma tarda ~ 14 ms en viajar desde NY a SF en línea recta (teniendo en cuenta la fibra hasta el final).
Shadok

La luz en la fibra viaja con un factor de velocidad de .67 (equivalente al índice de refracción) ~ 201,000 km / s, por lo que es de al menos 20 ms.
Zac67

Respuestas:


114

Velocidad de la luz:
no vas a superar la velocidad de la luz como un punto académico interesante. Este enlace funciona Stanford a Boston en ~ 40 ms mejor tiempo posible. Cuando esta persona hizo el cálculo, decidió que Internet funciona a aproximadamente "dentro de un factor de dos de la velocidad de la luz", por lo que hay aproximadamente ~ 85 ms de tiempo de transferencia.

Tamaño de la ventana TCP:
si tiene problemas de velocidad de transferencia, es posible que deba aumentar el tamaño de la ventana de recepción tcp. Es posible que también deba habilitar el escalado de ventanas si se trata de una conexión de gran ancho de banda con alta latencia (denominada "tubería larga y gruesa"). Entonces, si está transfiriendo un archivo grande, necesita tener una ventana de recepción lo suficientemente grande como para llenar la tubería sin tener que esperar las actualizaciones de la ventana. Entré en detalles sobre cómo calcular eso en mi respuesta Tuning an Elephant .

Geografía y latencia:
un punto de falla de algunas CDN (Redes de distribución de contenido) es que equiparan la latencia y la geografía. Google investigó mucho con su red y encontró fallas en esto, publicó los resultados en el documento técnico Mover más allá de la información de ruta de extremo a extremo para optimizar el rendimiento de CDN :

Primero, aunque la mayoría de los clientes son atendidos por un nodo CDN geográficamente cercano, una fracción considerable de clientes experimenta latencias varias decenas de milisegundos más altas que otros clientes en la misma región. En segundo lugar, encontramos que los retrasos en las colas a menudo anulan los beneficios de que un cliente interactúe con un servidor cercano.

Emparejamientos de BGP:
también si comienza a estudiar BGP (protocolo de enrutamiento central de Internet) y cómo los ISP eligen emparejamientos, encontrará que a menudo se trata más de finanzas y política, por lo que es posible que no siempre obtenga la 'mejor' ruta a ciertas ubicaciones geográficas dependiendo en tu ISP. Puede ver cómo se conecta su IP a otros ISP (sistemas autónomos) utilizando un enrutador de espejo . También puede usar un servicio whois especial :

whois -h v4-peer.whois.cymru.com "69.59.196.212"
PEER_AS | IP               | AS Name
25899   | 69.59.196.212    | LSNET - LS Networks
32869   | 69.59.196.212    | SILVERSTAR-NET - Silver Star Telecom, LLC

También es divertido explorarlos como pares con una herramienta de interfaz gráfica de usuario como linkrank , que te da una imagen de Internet a tu alrededor.


De acuerdo, la velocidad de la luz en línea recta es lo mejor que puedes hacer. Por cierto, una respuesta realmente excelente, esto es exactamente lo que estaba buscando. Gracias.
Jeff Atwood

44
Para los curiosos, la matemática real es: 3000 mi / c = 16.1 ms
tylerl

15
En el vacío, un fotón puede viajar por el ecuador en aproximadamente 134 ms. El mismo fotón en vidrio tomaría alrededor de 200 ms. Una pieza de fibra de 3,000 millas tiene 24 ms. de retraso sin ningún dispositivo.
dbasnett


42

Este sitio sugeriría una latencia de alrededor de 70-80 ms entre la costa este / oeste de los Estados Unidos (San Francisco a Nueva York, por ejemplo).

Camino transatlántico
NY 78 London
Wash 87 Frankfurt
Camino Transpacífico
SF 147 Hong Kong
Camino Trans-USA
SF 72 NY

latencia de red por pares de ciudades del mundo

Aquí están mis horarios (estoy en Londres, Inglaterra, así que mis tiempos en la costa oeste son más altos que en el este). Obtengo una diferencia de latencia de 74 ms, que parece respaldar el valor de ese sitio.

NY - 108ms latency, 61ms transfer, 169 total
OR - 182ms latency, 71ms transfer, 253 total

Estos se midieron utilizando las herramientas de desarrollo de Google Chrome.


2
tabla genial! NY to SF está actualmente 71 msen ello, así que tienes razón: no podemos esperar hacerlo mejor que eso.
Jeff Atwood

Gracias. Me ayudó mucho. Esta es otra fuente para buscar la latencia de red entre diferentes lugares del mundo - dotcom-monitor.com/WebTools/network_latency.aspx
Sajib Mahmood

10

Mida primero con ICMP si es posible. Las pruebas ICMP generalmente usan una carga útil muy pequeña de manera predeterminada, no usan un protocolo de enlace de tres vías y no tienen que interactuar con otra aplicación en la pila como lo hace HTTP. Cualquiera sea el caso, es de suma importancia que los resultados HTTP no se mezclen con los resultados ICMP. Son manzanas y naranjas.

Siguiendo la respuesta de Rich Adams y utilizando el sitio que él recomendó, puede ver que en el backbone de AT&T, el tráfico ICMP tarda 72 ms en moverse entre sus puntos finales SF y NY. Es un número razonable, pero debe tener en cuenta que está en una red que está completamente controlada por AT&T. No tiene en cuenta la transición a la red de su hogar u oficina.

Si hace un ping contra careers.stackoverflow.com desde su red de origen, debería ver algo no muy lejos de 72 ms (quizás +/- 20 ms). Si ese es el caso, entonces probablemente pueda suponer que la ruta de red entre los dos está bien y se ejecuta dentro de los rangos normales. Si no, no se asuste y mida desde otros lugares. Podría ser tu ISP.

Suponiendo que eso pasó, su próximo paso es abordar la capa de aplicación y determinar si hay algún problema con la sobrecarga adicional que está viendo con sus solicitudes HTTP. Esto puede variar de una aplicación a otra debido al hardware, el sistema operativo y la pila de aplicaciones, pero dado que tiene un equipo más o menos idéntico en las costas este y oeste, podría hacer que los usuarios de la costa este golpeen los servidores de la costa oeste y los usuarios de la costa oeste golpeen el este costa. Si ambos sitios están configurados correctamente, esperaría ver que todos los números sean menos iguales y, por lo tanto, demostrar que lo que está viendo es bastante común para lo grueso.

Si esos tiempos HTTP tienen una amplia variación, no me sorprendería si hubiera un problema de configuración en el sitio de rendimiento más lento.

Ahora, una vez que esté en este punto, puede intentar hacer una optimización más agresiva en el lado de la aplicación para ver si esos números se pueden reducir. Por ejemplo, si está utilizando IIS 7, ¿está aprovechando sus capacidades de almacenamiento en caché, etc.? Tal vez podrías ganar algo allí, tal vez no. Cuando se trata de ajustar elementos de bajo nivel como las ventanas TCP, soy muy escéptico de que tenga un gran impacto para algo como Stack Overflow. Pero bueno, no lo sabrás hasta que lo pruebes y lo midas.


7

Varias de las respuestas aquí están usando ping y traceroute para sus explicaciones. Estas herramientas tienen su lugar, pero no son confiables para la medición del rendimiento de la red.

En particular, (al menos algunos) enrutadores Juniper envían el procesamiento de eventos ICMP al plano de control del enrutador. Esto es MUCHO más lento que el plano de reenvío, especialmente en un enrutador de red troncal.

Existen otras circunstancias en las que la respuesta ICMP puede ser mucho más lenta que el rendimiento de reenvío real de un enrutador. Por ejemplo, imagine un enrutador totalmente de software (sin hardware de reenvío especializado) que esté al 99% de la capacidad de la CPU, pero que todavía esté moviendo bien el tráfico. ¿Desea que pase muchos ciclos procesando respuestas de traceroute o reenviando tráfico? Por lo tanto, procesar la respuesta es una prioridad súper baja.

Como resultado, ping / traceroute le da límites superiores razonables (las cosas van al menos tan rápido), pero en realidad no le dicen qué tan rápido va el tráfico real.

En cualquier evento -

Aquí hay un ejemplo de trazado de ruta desde la Universidad de Michigan (centro de EE. UU.) Hasta Stanford (costa oeste de EE. UU.). (Resulta que pasa por Washington, DC (costa este de EE. UU.), Que está a 500 millas en la dirección "incorrecta".

% traceroute -w 2 www.stanford.edu
traceroute to www-v6.stanford.edu (171.67.215.200), 64 hops max, 52 byte packets
 1  * * *
 2  * * *
 3  v-vfw-cc-clusta-l3-outside.r-seb.umnet.umich.edu (141.211.81.130)  3.808 ms  4.225 ms  2.223 ms
 4  l3-bseb-rseb.r-bin-seb.umnet.umich.edu (192.12.80.131)  1.372 ms  1.281 ms  1.485 ms
 5  l3-barb-bseb-1.r-bin-arbl.umnet.umich.edu (192.12.80.8)  1.784 ms  0.874 ms  0.900 ms
 6  v-bin-arbl-i2-wsu5.wsu5.mich.net (192.12.80.69)  2.443 ms  2.412 ms  2.957 ms
 7  v0x1004.rtr.wash.net.internet2.edu (192.122.183.10)  107.269 ms  61.849 ms  47.859 ms
 8  ae-8.10.rtr.atla.net.internet2.edu (64.57.28.6)  28.267 ms  28.756 ms  28.938 ms
 9  xe-1-0-0.0.rtr.hous.net.internet2.edu (64.57.28.112)  52.075 ms  52.156 ms  88.596 ms
10  * * ge-6-1-0.0.rtr.losa.net.internet2.edu (64.57.28.96)  496.838 ms
11  hpr-lax-hpr--i2-newnet.cenic.net (137.164.26.133)  76.537 ms  78.948 ms  75.010 ms
12  svl-hpr2--lax-hpr2-10g.cenic.net (137.164.25.38)  82.151 ms  82.304 ms  82.208 ms
13  hpr-stanford--svl-hpr2-10ge.cenic.net (137.164.27.62)  82.504 ms  82.295 ms  82.884 ms
14  boundarya-rtr.stanford.edu (171.66.0.34)  82.859 ms  82.888 ms  82.930 ms
15  * * *
16  * * *
17  www-v6.stanford.edu (171.67.215.200)  83.136 ms  83.288 ms  83.089 ms

En particular, observe la diferencia de tiempo entre los resultados del traceroute del enrutador de lavado y el enrutador atla (saltos 7 y 8). la ruta de red va primero a lavar y luego a atla. el lavado tarda 50-100 ms en responder, el atla tarda unos 28 ms. Claramente, el atla está más lejos, pero sus resultados de traceroute sugieren que está más cerca.

Consulte http://www.internet2.edu/performance/ para obtener mucha información sobre la medición de red. (descargo de responsabilidad, solía trabajar para internet2). Ver también: https://fasterdata.es.net/

Para agregar alguna relevancia específica a la pregunta original ... Como puede ver, tuve un tiempo de ping de ida y vuelta de 83 ms para Stanford, por lo que sabemos que la red puede ir al menos tan rápido.

Tenga en cuenta que la ruta de la red de investigación y educación que tomé en este trazado es probable que sea más rápida que una ruta de Internet de productos básicos. Las redes de R&E generalmente sobreaprovisionan sus conexiones, lo que hace poco probable el almacenamiento en búfer en cada enrutador. Además, tenga en cuenta el largo camino físico, más largo que de costa a costa, aunque claramente representativo del tráfico real.

michigan-> washington, dc-> atlanta-> houston-> los angeles-> stanford


6

Veo diferencias consistentes y estoy sentado en Noruega:

serverfault       careers
  509ms            282ms
  511ms            304ms
  488ms            295ms
  480ms            274ms
  498ms            278ms

Esto se midió con el método científico exacto y comprobado de usar la vista de recursos de Google Chrome y simplemente actualizar repetidamente cada enlace.

Traceroute a serverfault

Tracing route to serverfault.com [69.59.196.212]
over a maximum of 30 hops:

  1    <1 ms     1 ms    <1 ms  81.27.47.1
  2     2 ms     1 ms     1 ms  qos-1.webhuset.no [81.27.32.17]
  3     1 ms     1 ms     1 ms  81.27.32.10
  4     1 ms     2 ms     1 ms  201.82-134-26.bkkb.no [82.134.26.201]
  5    14 ms    14 ms    14 ms  193.28.236.253
  6    13 ms    13 ms    14 ms  TenGigabitEthernet8-4.ar1.OSL2.gblx.net [64.209.94.125]
  7    22 ms    21 ms    21 ms  te7-1-10G.ar3.cph1.gblx.net [67.16.161.93]
  8    21 ms    20 ms    20 ms  sprint-1.ar3.CPH1.gblx.net [64.212.107.18]
  9    21 ms    21 ms    20 ms  sl-bb20-cop-15-0-0.sprintlink.net [80.77.64.33]
 10   107 ms   107 ms   107 ms  144.232.24.12
 11   107 ms   106 ms   105 ms  sl-bb20-msq-15-0-0.sprintlink.net [144.232.9.109]
 12   106 ms   106 ms   107 ms  sl-crs2-nyc-0-2-5-0.sprintlink.net [144.232.20.75]
 13   129 ms   135 ms   134 ms  sl-crs2-chi-0-15-0-0.sprintlink.net [144.232.24.208]
 14   183 ms   183 ms   184 ms  sl-crs2-chi-0-10-3-0.sprintlink.net [144.232.20.85]
 15   189 ms   189 ms   189 ms  sl-gw12-sea-2-0-0.sprintlink.net [144.232.6.120]
 16   193 ms   189 ms   189 ms  204.181.35.194
 17   181 ms   181 ms   180 ms  core2-gi61-to-core1-gi63.silverstartelecom.com [74.85.240.14]
 18   182 ms   182 ms   182 ms  sst-6509b-gi51-2-gsr2-gi63.silverstartelecom.com [74.85.242.6]
 19   195 ms   195 ms   194 ms  sst-6509-peak-p2p-gi13.silverstartelecom.com [12.111.189.106]
 20   197 ms   197 ms   197 ms  ge-0-0-2-cvo-br1.peak.org [69.59.218.2]
 21   188 ms   187 ms   189 ms  ge-1-0-0-cvo-core2.peak.org [69.59.218.193]
 22   198 ms   198 ms   198 ms  vlan5-cvo-colo2.peak.org [69.59.218.226]
 23   198 ms   197 ms   197 ms  stackoverflow.com [69.59.196.212]

Trace complete.

Traceroute a carreras

Tracing route to careers.stackoverflow.com [64.34.80.176]
over a maximum of 30 hops:

  1     1 ms     1 ms     1 ms  81.27.47.1
  2     2 ms     1 ms    <1 ms  qos-1.webhuset.no [81.27.32.17]
  3     1 ms     1 ms     1 ms  81.27.32.10
  4     1 ms     1 ms     2 ms  201.82-134-26.bkkb.no [82.134.26.201]
  5    12 ms    13 ms    13 ms  193.28.236.253
  6    13 ms    14 ms    14 ms  TenGigabitEthernet8-4.ar1.OSL2.gblx.net [64.209.94.125]
  7    21 ms    21 ms    21 ms  ge7-1-10G.ar1.ARN3.gblx.net [67.17.109.89]
  8    21 ms    20 ms    20 ms  tiscali-1.ar1.ARN3.gblx.net [64.208.110.130]
  9   116 ms   117 ms   122 ms  xe-4-2-0.nyc20.ip4.tinet.net [89.149.184.142]
 10   121 ms   122 ms   121 ms  peer1-gw.ip4.tinet.net [77.67.70.194]
 11     *        *        *     Request timed out.

Desafortunadamente, ahora comienza a entrar en un bucle o algo así y continúa dando estrellas y tiempo de espera hasta 30 saltos y luego termina.

Tenga en cuenta que las rutas de seguimiento son de un host diferente a los tiempos al inicio, tuve que RDP a mi servidor alojado para ejecutarlos


1
a la derecha, se espera que el centro de datos de la costa este sea más amigable con nuestro público europeo: está viendo un tiempo de más de 200 ms para atravesar el ancho de los EE. UU. Sin embargo, ¿solo deberían ser ~ 80 ms según las otras respuestas?
Jeff Atwood

parece que es coherente a unos 200 ms, he pulsado actualizar unas 20-30 veces ahora en ambos (no al mismo tiempo), y el sitio predeterminado del servidor parece que ronda los 200 ms +/- más que el otro . Intenté un traceroute, pero aparece con estrellas en todo, por lo que quizás nuestros administradores de TI hayan bloqueado algo.
Lasse Vågsæther Karlsen

2

Veo una latencia de aproximadamente 80-90 ms en enlaces bien medidos y bien medidos entre las costas este y oeste.

Sería interesante ver dónde está ganando latencia: pruebe una herramienta como traceroute de capa cuatro (lft). Hay muchas posibilidades de que se gane en la "última milla" (es decir, en su proveedor local de banda ancha).

Es de esperar que el tiempo de transferencia se haya visto afectado ligeramente: la pérdida de paquetes y la fluctuación son medidas más útiles para observar cuando se investigan las diferencias de tiempo de transferencia entre dos ubicaciones.


2

Solo por diversión, cuando jugué al juego en línea Lineage 2 NA desde Europa:

Response time to east coast servers: ~110-120ms
Response time to west coast servers: ~190-220ms

La diferencia parece respaldar que hasta 100 ms está dentro de lo razonable, considerando la naturaleza impredecible de Internet.

Utilizando la aclamada prueba de actualización de Chrome, obtengo un tiempo de carga de documentos que difiere en aproximadamente 130 ms.


2

Todos aquí tienen algún punto realmente bueno. y son correctos en su propio POV.

Y todo se reduce a que no hay una respuesta exacta real aquí, porque hay tantas variables que cualquier respuesta dada siempre se puede probar que es incorrecta simplemente cambiando una de cien variables.

Al igual que la latencia de 72ms NY a SF es la latencia de PoP a PoP de un transportista de un paquete. Esto no tiene en cuenta ninguno de los otros grandes puntos que algunos han señalado aquí sobre congestión, pérdida de paquetes, calidad de servicio, paquetes fuera de servicio o tamaño de paquete, o redirigir la red solo entre el mundo perfecto de PoP a PoP .

Y luego, cuando agrega la última milla (generalmente muchas millas) desde el PoP a su ubicación real dentro de las dos ciudades donde todas estas variables se vuelven mucho más fluidas, ¡comienza a escalar exponencialmente a partir de una capacidad razonable de conjetura!

Como ejemplo, realicé una prueba entre la ciudad de Nueva York y SF en el transcurso de un día hábil. Hice esto un día en que no hubo "incidentes" importantes en todo el mundo que pudieran causar un aumento en el tráfico. ¡Entonces quizás esto no era normal en el mundo de hoy! Pero no obstante fue mi prueba. Realmente medí de una ubicación comercial a otra durante este período, y durante el horario comercial normal de cada costa.

Al mismo tiempo, supervisé los números de los proveedores de circuitos en la web.

Los resultados fueron números de latencia entre 88 y 100 ms de puerta a puerta de las ubicaciones comerciales. Esto no incluyó ningún número de latencia de red entre oficinas.

La latencia de las redes del proveedor de servicios osciló entre 70 y 80 ms. Lo que significa que la latencia de la última milla podría haber oscilado entre 18 y 30 ms. No correlacioné los picos y bajos exactos entre los dos entornos.


1

Tiempos de Nueva York:

NY     OR
109ms  271ms
72ms   227ms
30ms   225ms
33ms   114ms
34ms   224ms

Usando Chrome, en una conexión residencial.

Usando lft desde un VPS en un centro de datos en Newark, Nueva Jersey:

terracidal ~ # lft careers.stackoverflow.com -V
Layer Four Traceroute (LFT) version 3.0
Using device eth0, members.linode.com (97.107.139.108):53
TTL LFT trace to 64.34.80.176:80/tcp
 1  207.192.75.2 0.4/0.5ms
 2  vlan804.tbr2.mmu.nac.net (209.123.10.13) 0.4/0.3ms
 3  0.e1-1.tbr2.tl9.nac.net (209.123.10.78) 1.3/1.5ms
 4  nyiix.Peer1.net (198.32.160.65) 1.4/1.4ms
 5  oc48-po3-0.nyc-75bre-dis-1.peer1.net (216.187.115.134) 1.6/1.5ms
 6  216.187.115.145 2.7/2.2ms
 7  64.34.60.28 2.3/1.8ms
 8  [target open] 64.34.80.176:80 2.5ms

terracidal ~ # lft serverfault.com -V
Layer Four Traceroute (LFT) version 3.0
Using device eth0, members.linode.com (97.107.139.108):53
TTL LFT trace to stackoverflow.com (69.59.196.212):80/tcp
 1  207.192.75.2 36.4/0.6ms
 2  vlan803.tbr1.mmu.nac.net (209.123.10.29) 0.4/0.4ms
 3  0.e1-1.tbr1.tl9.nac.net (209.123.10.102) 1.3/1.4ms
 4  nyk-b3-link.telia.net (213.248.99.89) 1.6/1.4ms
 5  nyk-bb2-link.telia.net (80.91.250.94) 1.9/84.8ms
 6  nyk-b5-link.telia.net (80.91.253.106) 1.7/1.7ms
 7  192.205.34.53 2.1/2.1ms
 8  cr1.n54ny.ip.att.net (12.122.81.106) 83.5/83.6ms
 9  cr2.cgcil.ip.att.net (12.122.1.2) 82.7/83.1ms
10  cr2.st6wa.ip.att.net (12.122.31.130) 83.4/83.5ms
11  cr2.ptdor.ip.att.net (12.122.30.149) 82.7/82.7ms
12  gar1.ptdor.ip.att.net (12.123.157.65) 82.2/82.3ms
13  12.118.177.74 82.9/82.8ms
14  sst-6509b-gi51-2-gsr2-gi63.silverstartelecom.com (74.85.242.6) 84.1/84.0ms
15  sst-6509-peak-p2p-gi13.silverstartelecom.com (12.111.189.106) 83.3/83.4ms
16  ge-0-0-2-cvo-br1.peak.org (69.59.218.2) 86.3/86.2ms
**  [neglected] no reply packets received from TTLs 17 through 18
19  [target closed] stackoverflow.com (69.59.196.212):80 86.3/86.3ms
Al usar nuestro sitio, usted reconoce que ha leído y comprende nuestra Política de Cookies y Política de Privacidad.
Licensed under cc by-sa 3.0 with attribution required.