¿Cómo afecta la geografía a la latencia de la red?


20

Tengo la opción de alojar nuestra base de datos / servidor web en una empresa de alojamiento administrado en la costa este (EE. UU.) O en la costa oeste (EE. UU.). Nuestra empresa tiene su sede en la ciudad de Nueva York, y ambos proveedores de hosting le dan a nuestra caja una línea T1 dedicada.

¿Cuánto impacto en el rendimiento (suponiendo que todos los demás factores sean iguales) estaría tomando en términos de latencia de red si optara por el de la costa oeste en lugar del de la costa este? No estoy muy seguro de cómo la geografía afecta las velocidades de Internet cuando los números y las distancias se vuelven realmente grandes (T1 y más, y miles de millas).

¡Gracias!


Oh, cómo envidio tu posición. Tenemos un cliente en Filipinas que se ejecuta en ISDN como su único enlace para todo su tráfico de red. Quieres hablar de latencia, intentando 700ms entre entonces y nosotros (en Australia) cuando NO hay tráfico en la línea :(
Mark Henderson

Respuestas:


10

Hay un retraso de distancia y todas las demás cosas son iguales (eficiencia de enrutamiento, procesamiento, sobrecarga, etc.) un sitio en la costa oeste al que accede un anfitrión en la costa este tomará más tiempo que si ese sitio está en el este costa pero estamos hablando milisegundos aquí.


Enlace abajo .......
Pacerier

11

En igualdad de condiciones, tendrá 44 milisegundos adicionales de latencia solo por la velocidad de la luz. Dé o tome 1/20 de segundo por cada paquete de ida y vuelta. No es mucho para el uso típico de la web. Transitable para sesiones ssh. Sustancial si accede a su base de datos directamente con muchas pequeñas transacciones consecutivas.

He ignorado la latencia adicional causada por enrutadores / repetidores adicionales, que podrían ser mucho, mucho más altos. Asumí la distancia 4400 km y la velocidad de la luz en fibra 200000 km / s.


1 ms por cada 100 km solo es preciso si no hay enrutadores intermedios. Los repetidores de fibra no agregan latencia una vez que su suministro es bueno.
Ryaner

@Ryaner, ¿qué quieres decir con ~ " Los repetidores de fibra tienen latencia cero "? ¿Cómo es esto posible?
Pacerier

lightwaveonline.com/articles/print/volume-29/issue-6/feature/… cubre muy bien los diferentes detalles. TLDR, los repetidores de regeneración óptica añaden latencia pero es básicamente cero en términos reales. Verá una latencia más alta agregada por el DCM en cada extremo y en sus enrutadores de punto final.
Ryaner

5

Teníamos un cliente con el que pasamos bastante tiempo dando vueltas y vueltas en relación con esto. Originalmente fueron alojados en Nueva York, y su personal se encuentra principalmente en el área de Boston. Estaban trasladando sus servidores a nuestras instalaciones ubicadas en Denver, a aproximadamente dos tercios del país.

Una vez que se mudaron, comenzaron a plantear problemas de rendimiento de sus enlaces de Comcast en las oficinas domésticas. Solían tener <10 ms de latencia, y subió a 80-ish ms. Notaron un rendimiento más lento que llegaba a sus sitios, pero dijeron que "tal vez tendremos que soportar pasar de velocidades increíblemente rápidas a meras velocidades mortales". Parecían darse cuenta de que había limitaciones debido a la geografía, y que sus usuarios en la costa oeste podrían obtener un mejor rendimiento.

Fuimos de ida y vuelta varias veces. Después de aproximadamente 6 meses, cambiamos a un ISP principal primario diferente, por razones ajenas a este cliente (mejor precio, más ancho de banda, descontento con el número de ventanas de mantenimiento del otro proveedor), y con el nuevo proveedor estábamos obteniendo alrededor de 45 ms latencia promedio para este cliente. En este punto, sus preocupaciones de rendimiento parecen haber desaparecido.

Solo para darle algo de experiencia sobre un caso en el que se vio este tipo de problema y los números relacionados con él.

Intente usar "mtr" para mostrar información sobre la latencia y la pérdida de paquetes a los diferentes extremos remotos. A menos que comprenda completamente el enrutamiento de "ruta lenta", ignore cualquier cosa que no sea el último salto que aparece en esa salida. Van Jacobson dice que los humanos notan una latencia a partir de 400 ms, pero se dan cuenta de que muchas conexiones requieren múltiples intercambios de ida y vuelta, por lo que una latencia de 100 ms puede sumar rápidamente hasta un segundo ...

Desde mi experiencia, la latencia de 250 ms comienza a sentirse como una conexión notablemente lenta. 10 ms o mejor se siente como una conexión ardiente. Realmente depende de lo que estés haciendo.

Sean


Denver, que significa CO?
Pacerier

Por cierto, "los humanos notan latencia a partir de 400 ms" es descaradamente falso. Hable con cualquier jugador y verá que una latencia de 65 ms (y superior) es completamente inaceptable .
Pacerier

3

Bueno, los paquetes viajan por el cable lo suficientemente cerca de la velocidad de la luz que el tiempo de transmisión en bruto es insignificante en comparación con otros factores. Lo que importa es la eficiencia del enrutamiento y la rapidez con que los dispositivos de enrutamiento pueden hacer el enrutamiento. Desafortunadamente, eso no se puede determinar únicamente en función de la distancia geográfica. Existe una fuerte correlación entre la distancia y la latencia, pero no hay una regla dura y rápida que yo sepa.


¿Hay alguna forma de determinar la eficiencia del enrutamiento? ¿Hay algún tipo de prueba que pueda ejecutar en los dos servidores para ver eso, y qué significaría ese número?
neezer

2
Los paquetes viajan en el mejor de los casos .66 (óptico) y ~ .55 (cobre) veces la velocidad de la luz.
Noah Campbell

@Noah - ¿Eso está mejor?
EBGreen

¿Mejor que la velocidad de la luz? No, es aproximadamente la mitad de la velocidad de la luz.
Noah Campbell

Quiero decir, ¿es mi edición una mejor descripción?
EBGreen

3

El número de saltos entre el punto A y el punto B introducirá latencia. Cuente la cantidad de saltos ya que este es su mejor indicador.

Algunas palabras de precaución. Los métodos para evaluar la ruta de red no son consistentes con la forma en que fluirá el paquete real. ICMP puede enrutarse y recibir una QoS de diferencia. Además, traceroute generalmente mira en una dirección, es decir, de origen a destino. Aquí hay algunos trucos útiles.

Para traceroute, trate de usar -I, -Uo -Tpara ver cómo varía la trayectoria. También mira -t 16o -t 8. traceroute

Ping es realmente bastante útil. ping -Rte mostrará el camino que se necesita para volver! Si difiere del camino que sale, vea a dónde va. silbido


2

Creo que la geografía tendrá mucho que ver con el tiempo de transmisión de paquetes, ya que cuanto más avance, más saltos probablemente agregará afectando la latencia general. Si sus clientes se basarán principalmente en la costa oeste, entonces elegiría el alojamiento de la costa oeste ... Lo mismo en la costa este. Si sus clientes vendrán de todos los EE. UU. O del mundo ... entonces solo tendrá que tomar la difícil decisión de qué lado obtiene la menor latencia.

En nuestro caso, estamos en nuestra propia red (una gran intranet) y podemos permitir que nuestros enrutadores tomen decisiones basadas en OSPF en todo el estado :) Desafortunadamente, cualquier cosa fuera de nuestra red se basa principalmente en el diseño de nuestros ISP.


Una gran herramienta que puede usar es MTR no solo para descubrir la latencia, sino también la pérdida de paquetes, la información de ruta, la fluctuación, etc. Hice una publicación sobre la información que brinda aquí: serverfault.com/questions/21048/…
l0c0b0x
Al usar nuestro sitio, usted reconoce que ha leído y comprende nuestra Política de Cookies y Política de Privacidad.
Licensed under cc by-sa 3.0 with attribution required.