Transferencias lentas a distancia


19

Desde nuestro Centro de datos de Nueva York, las transferencias a ubicaciones más alejadas están teniendo un bajo rendimiento.

Usando la prueba de velocidad para probar varias ubicaciones, podemos saturar nuestro enlace ascendente de 100 mbit a Boston y Filadelfia fácilmente. Cuando uso la prueba de velocidad para ubicarlo en la costa oeste de los EE. UU. O Europa, a menudo veo solo unos 9 mbit / s.

Mi primera reacción es que este es un problema de escalado de ventana (producto de retardo de ancho de banda). Sin embargo, me ajusté con los parámetros del kernel de Linux en una máquina de prueba en la costa oeste y usé iperf hasta el punto en que la ventana está dimensionada lo suficiente como para admitir 100 MegaBytes por segundo y todavía tiene velocidades lentas (Verificado en la captura). También he intentado deshabilitar el algoritmo de Nagle.

Obtenemos un bajo rendimiento tanto de Linux como de Windows, pero es significativamente peor (1/3) la velocidad con Windows.

La forma de la transferencia (sin Nagle) es:ingrese la descripción de la imagen aquí

El Dip alrededor de 10s tiene ~ 100 acks duplicados.

La forma del tamaño de ventana mínima del receptor a lo largo del tiempo es:

ingrese la descripción de la imagen aquí

¿Alguna idea sobre dónde ir después para fijar el cuello de nuestra botella?

Algunos resultados de la prueba de velocidad (carga usando speedtest.net):

  • Filadelfia: 44 mbit (las personas que usan nuestro sitio usan el resto ;-))
  • Miami: 15 mbit
  • Dallas: 14 mbit
  • San José: 9 mbit
  • Berlín: 5 mbit
  • Sydney: 2.9 mbit

Aún más datos:
Miami: 69.241.6.18

 2  stackoverflow-nyc-gw.peer1.net (64.34.41.57)  0.579 ms  0.588 ms  0.594 ms
 3  gig4-0.nyc-gsr-d.peer1.net (216.187.123.6)  0.562 ms  0.569 ms  0.565 ms
 4  xe-7-2-0.edge1.newyork1.level3.net (4.78.132.65)  0.634 ms  0.640 ms  0.637 ms
 5  vlan79.csw2.newyork1.level3.net (4.68.16.126)  4.120 ms  4.126 ms vlan89.csw3.newyork1.level3.net (4.68.16.190)  0.673 ms
 6  ae-81-81.ebr1.newyork1.level3.net (4.69.134.73)  1.236 ms ae-91-91.ebr1.newyork1.level3.net (4.69.134.77)  0.956 ms ae-81-81.ebr1.newyork1.level3.net (4.69.134.73)  0.600 ms
 7  ae-10-10.ebr2.washington12.level3.net (4.69.148.50)  6.059 ms  6.029 ms  6.661 ms
 8  ae-1-100.ebr1.washington12.level3.net (4.69.143.213)  6.084 ms  6.056 ms  6.065 ms
 9  ae-6-6.ebr1.atlanta2.level3.net (4.69.148.105)  17.810 ms  17.818 ms  17.972 ms
10  ae-1-100.ebr2.atlanta2.level3.net (4.69.132.34)  18.014 ms  18.022 ms  18.661 ms
11  ae-2-2.ebr2.miami1.level3.net (4.69.140.141)  40.351 ms  40.346 ms  40.321 ms
12  ae-2-52.edge2.miami1.level3.net (4.69.138.102)  31.922 ms  31.632 ms  31.628 ms
13  comcast-ip.edge2.miami1.level3.net (63.209.150.98)  32.305 ms  32.293 ms comcast-ip.edge2.miami1.level3.net (64.156.8.10)  32.580 ms
14  pos-0-13-0-0-ar03.northdade.fl.pompano.comcast.net (68.86.90.230)  32.172 ms  32.279 ms  32.276 ms
15  te-8-4-ur01.northdade.fl.pompano.comcast.net (68.85.127.130)  32.244 ms  32.539 ms  32.148 ms
16  te-8-1-ur02.northdade.fl.pompano.comcast.net (68.86.165.42)  32.478 ms  32.456 ms  32.459 ms
17  te-9-3-ur05.northdade.fl.pompano.comcast.net (68.86.165.46)  32.409 ms  32.390 ms  32.544 ms
18  te-5-3-ur01.pompanobeach.fl.pompano.comcast.net (68.86.165.198)  33.938 ms  33.775 ms  34.430 ms
19  te-5-3-ur01.pompanobeach.fl.pompano.comcast.net (68.86.165.198)  32.896 ms !X * *

69.241.6.0/23 *[BGP/170] 1d 00:55:07, MED 3241, localpref 61, from 216.187.115.12
AS path: 3356 7922 7922 7922 20214 I
> to 216.187.115.166 via xe-0/0/0.0

San José: 208.79.45.81

 2  stackoverflow-nyc-gw.peer1.net (64.34.41.57)  0.477 ms  0.549 ms  0.547 ms
 3  gig4-0.nyc-gsr-d.peer1.net (216.187.123.6)  0.543 ms  0.586 ms  0.636 ms
 4  xe-7-2-0.edge1.newyork1.level3.net (4.78.132.65)  0.518 ms  0.569 ms  0.566 ms
 5  vlan89.csw3.newyork1.level3.net (4.68.16.190)  0.620 ms vlan99.csw4.newyork1.level3.net (4.68.16.254)  9.275 ms vlan89.csw3.newyork1.level3.net (4.68.16.190)  0.759 ms
 6  ae-62-62.ebr2.newyork1.level3.net (4.69.148.33)  1.848 ms  1.189 ms ae-82-82.ebr2.newyork1.level3.net (4.69.148.41)  1.011 ms
 7  ae-2-2.ebr4.sanjose1.level3.net (4.69.135.185)  69.942 ms  68.918 ms  69.451 ms
 8  ae-81-81.csw3.sanjose1.level3.net (4.69.153.10)  69.281 ms ae-91-91.csw4.sanjose1.level3.net (4.69.153.14)  69.147 ms ae-81-81.csw3.sanjose1.level3.net (4.69.153.10)  69.495 ms
 9  ae-23-70.car3.sanjose1.level3.net (4.69.152.69)  69.863 ms ae-13-60.car3.sanjose1.level3.net (4.69.152.5)  69.860 ms ae-43-90.car3.sanjose1.level3.net (4.69.152.197)  69.661 ms
10  smugmug-inc.car3.sanjose1.level3.net (4.71.112.10)  73.298 ms  73.290 ms  73.274 ms
11  speedtest.smugmug.net (208.79.45.81)  70.055 ms  70.038 ms  70.205 ms

208.79.44.0/22 *[BGP/170] 4w0d 08:03:46, MED 0, localpref 59, from 216.187.115.12
AS path: 3356 11266 I
> to 216.187.115.166 via xe-0/0/0.0

Filadelfia: 68.87.64.49

 2  stackoverflow-nyc-gw.peer1.net (64.34.41.57)  0.578 ms  0.576 ms  0.570 ms
 3  gig4-0.nyc-gsr-d.peer1.net (216.187.123.6)  0.615 ms  0.613 ms  0.602 ms
 4  xe-7-2-0.edge1.newyork1.level3.net (4.78.132.65)  0.584 ms  0.580 ms  0.574 ms
 5  vlan79.csw2.newyork1.level3.net (4.68.16.126)  0.817 ms vlan69.csw1.newyork1.level3.net (4.68.16.62)  9.518 ms vlan89.csw3.newyork1.level3.net (4.68.16.190)  9.712 ms
 6  ae-91-91.ebr1.newyork1.level3.net (4.69.134.77)  0.939 ms ae-61-61.ebr1.newyork1.level3.net (4.69.134.65)  1.064 ms ae-81-81.ebr1.newyork1.level3.net (4.69.134.73)  1.075 ms
 7  ae-6-6.ebr2.newyork2.level3.net (4.69.141.22)  0.941 ms  1.298 ms  0.907 ms
 8  * * *
 9  comcast-ip.edge1.newyork2.level3.net (4.71.186.14)  3.187 ms comcast-ip.edge1.newyork2.level3.net (4.71.186.34)  2.036 ms comcast-ip.edge1.newyork2.level3.net (4.71.186.2)  2.682 ms
10  te-4-3-ar01.philadelphia.pa.bo.comcast.net (68.86.91.162)  3.507 ms  3.716 ms  3.716 ms
11  te-9-4-ar01.ndceast.pa.bo.comcast.net (68.86.228.2)  7.700 ms  7.884 ms  7.727 ms
12  te-4-1-ur03.ndceast.pa.bo.comcast.net (68.86.134.29)  8.378 ms  8.185 ms  9.040 ms

68.80.0.0/13 *[BGP/170] 4w0d 08:48:29, MED 200, localpref 61, from 216.187.115.12
AS path: 3356 7922 7922 7922 I
> to 216.187.115.166 via xe-0/0/0.0

Berlín: 194.29.226.25

 2  stackoverflow-nyc-gw.peer1.net (64.34.41.57)  0.483 ms  0.480 ms  0.537 ms
 3  oc48-po2-0.nyc-telx-dis-2.peer1.net (216.187.115.133)  0.532 ms  0.535 ms  0.530 ms
 4  oc48-so2-0-0.ldn-teleh-dis-1.peer1.net (216.187.115.226)  68.550 ms  68.614 ms  68.610 ms
 5  linx1.lon-2.uk.lambdanet.net (195.66.224.99)  81.481 ms  81.463 ms  81.737 ms
 6  dus-1-pos700.de.lambdanet.net (82.197.136.17)  80.767 ms  81.179 ms  80.671 ms
 7  han-1-eth020.de.lambdanet.net (217.71.96.77)  97.164 ms  97.288 ms  97.270 ms
 8  ber-1-eth020.de.lambdanet.net (217.71.96.153)  89.488 ms  89.462 ms  89.477 ms
 9  ipb-ber.de.lambdanet.net (217.71.97.82)  104.328 ms  104.178 ms  104.176 ms
10  vl506.cs22.b1.ipberlin.com (91.102.8.4)  90.556 ms  90.564 ms  90.553 ms
11  cic.ipb.de (194.29.226.25)  90.098 ms  90.233 ms  90.106 ms

194.29.224.0/19 *[BGP/170] 3d 23:14:47, MED 0, localpref 69, from 216.187.115.15
AS path: 13237 20647 I
> to 216.187.115.182 via xe-0/1/0.999

Actualizar:

Profundizando un poco más en esto con Tall Jeff, hemos encontrado algo extraño. De acuerdo con el TCPDump en el lado del remitente, envía los paquetes como 65k paquetes a través de Internet . Cuando miramos los vertederos en el lado del receptor, llegan fragmentados 1448 como era de esperar.

Así es como se ve el volcado de paquetes en el lado del remitente:ingrese la descripción de la imagen aquí

Lo que sucede entonces es que el remitente piensa que solo está enviando paquetes de 64k, pero en realidad, en lo que respecta al receptor, está enviando ráfagas de paquetes. El resultado final es un mal control de congestión. Puede ver que este es un gráfico de las longitudes de los paquetes de datos que envía el remitente:

ingrese la descripción de la imagen aquí

¿Alguien sabe qué puede hacer que el remitente piense que hay una MTU de 64k? Tal vez algunos /proc, ethtoolo ifconfig parameter? ( ifconfigmuestra que el MTU es 1500). Mi mejor suposición en este momento es algún tipo de aceleración de hardware, pero no estoy seguro de qué específicamente.

Subedit 2-2 IV:
Acabo de pensar, ya que estos paquetes de 64k tienen el bit DF establecido, ¡tal vez mi proveedor los está fragmentando de todos modos y está arruinando el descubrimiento automático de MSS! O tal vez nuestro firewall está mal configurado ...

Edición Adjunta 9.73.4 20-60:
La razón por la que veo los paquetes de 64k es porque la descarga de segmentos (tso y gso, vea ethtool -K) están activados. Después de desactivarlos, no veo mejoras en la velocidad de las transferencias. La forma cambia un poco y las retransmisiones están en segmentos más pequeños:ingrese la descripción de la imagen aquí

También probé todos los diferentes algoritmos de congestión en Linux sin ninguna mejora. Mi proveedor de Nueva York intentó cargar archivos en un servidor ftp de prueba en OR desde la instalación en la que nos encontramos y está obteniendo el triple de velocidad.

El informe MTR solicitado de NY a OR:

root@ny-rt01:~# mtr haproxy2.stackoverflow.com -i.05 -s 1400 -c 500 -r
HOST: ny-rt01.ny.stackoverflow.co Loss%   Snt   Last   Avg  Best  Wrst StDev
  1. stackoverflow-nyc-gw.peer1.n  0.0%   500    0.6   0.6   0.5  18.1   0.9
  2. gig4-0.nyc-gsr-d.peer1.net    0.0%   500    0.6   0.6   0.5  14.8   0.8
  3. 10ge.xe-0-0-0.nyc-telx-dis-1  0.0%   500    0.7   3.5   0.5  99.7  11.3
  4. nyiix.he.net                  0.0%   500    8.5   3.5   0.7  20.8   3.9
  5. 10gigabitethernet1-1.core1.n  0.0%   500    2.3   3.5   0.8  23.5   3.8
  6. 10gigabitethernet8-3.core1.c  0.0%   500   20.1  22.4  20.1  37.5   3.6
  7. 10gigabitethernet3-2.core1.d  0.2%   500   72.2  72.5  72.1  84.4   1.5
  8. 10gigabitethernet3-4.core1.s  0.2%   500   72.2  72.6  72.1  92.3   1.9
  9. 10gigabitethernet1-2.core1.p  0.4%   500   76.2  78.5  76.0 100.2   3.6
 10. peak-internet-llc.gigabiteth  0.4%   500   76.3  77.1  76.1 118.0   3.6
 11. ge-0-0-2-cvo-br1.peak.org     0.4%   500   79.5  80.4  79.0 122.9   3.6
 12. ge-1-0-0-cvo-core2.peak.org   0.4%   500   83.2  82.7  79.8 104.1   3.2
 13. vlan5-cvo-colo2.peak.org      0.4%   500   82.3  81.7  79.8 106.2   2.9
 14. peak-colo-196-222.peak.org    0.4%   499   80.1  81.0  79.7 117.6   3.3

Cuál es su bajo rendimiento en Windows 2008 R2?
Jim B

Windows 2008 R2 es peor que Linux, pero con Linux solo puedo extraer quizás 20-30mbit. Intenté todo tipo de ajustes de Windows, particularmente en torno a cosas que afectan la escala de Windows. Pero mi teoría es que la conexión está fallando, y Linux solo maneja la conexión sucky un poco mejor.
Kyle Brandt

2
Mi primera suposición sería una ruta mala / lenta en uno de los ISP entre su ubicación y la costa oeste / Europa.
xeon

1
Dado que las rutas AS son diferentes para las áreas de bajo rendimiento, no parece que sea algo ascendente en el camino.
Kyle Brandt

1
Si no está obteniendo buenos resultados con UDP, entonces TCP ciertamente no ayudará (por supuesto, asegúrese de que puede ejecutar la velocidad de enlace localmente con UDP; de lo contrario, su hardware de prueba iperf puede tener fallas).
Jed Daniels

Respuestas:


5

Asegurarme de que la ventana TCP se esté abriendo lo suficiente como para cubrir el Producto de retraso de ancho de banda también habría sido mi primera suposición. Suponiendo que esté configurado correctamente (y respaldado por ambos extremos), luego examinaría un rastreo de paquetes para asegurarme de que la ventana realmente se está abriendo y que uno de los saltos en la ruta no está quitando la escala de la ventana. Si todo está bien, y está seguro de que no está golpeando en un salto de ancho de banda restringido en la ruta, la causa probable de sus problemas es la caída aleatoria de paquetes. Esta hipótesis está respaldada por la indicación de los ACK duplicados que mencionó. (Los ACK duplicados son generalmente un resultado directo de la pérdida de datos). También tenga en cuenta que con un producto de gran retraso de ancho de banda y, por lo tanto, una gran ventana deslizante abierta

Nota al margen: para transferencias de datos masivos a través de TCP y a través de una conexión WAN de múltiples saltos, no debería haber necesidad ni razón para deshabilitar Nagle. De hecho, ese escenario exacto es por qué existe Nagle. En general, Nagle solo necesita deshabilitarse para conexiones interactivas donde los datagramas de tamaño sub-MTU necesitan ser expulsados ​​sin demora. es decir: para transferencias masivas, desea la mayor cantidad de datos posible en cada paquete.


1

¿afinó su paquete reordenando el umbral? Compruébelo en tcp_reordering en / proc en Linux. En tuberías largas, es común que un efecto de múltiples rutas provoque una detección de pérdida de paquetes falsa, retransmisión y las caídas de velocidad que envió en su gráfico. También causa muchos Acks duplicados, por lo que vale la pena verificarlo. No olvide que debe sintonizar ambos lados de la tubería para obtener buenos resultados y utilizar al menos cúbico. Un protocolo interactivo, como ftp, puede dañar cualquier tcp para la optimización de tuberías largas que puede hacer. A menos que solo esté transfiriendo archivos grandes.


-2

Lo que está viendo me parece bastante normal, en función de la latencia que está informando en sus diversos sitios. La latencia matará a través del rendimiento de casi cualquier conexión individual, independientemente del ancho de banda disponible, muy rápidamente.

Silver Peak ofrece un estimador rápido y sucio para el rendimiento que puede esperar ver con una cantidad dada de ancho de banda y un nivel de latencia dado aquí: http://www.silver-peak.com/calculator/

Conecte una conexión de 100mbit con las latencias apropiadas que está viendo, y verá que sus velocidades realmente coinciden (Aproximadamente) con lo que debería esperar ver.

En cuanto a Windows que ofrece un rendimiento inferior al de Linux, desafortunadamente no puedo ofrecer ninguna buena sugerencia. ¿Supongo que está haciendo una comparación de manzanas con manzanas con hardware idéntico (NIC, específicamente)?


1
No veo por qué la latencia afectaría el rendimiento con el tiempo si hay una ventana lo suficientemente grande como para acomodar el producto de retraso de ancho de banda.
Kyle Brandt

Es solo la naturaleza de la bestia cuando se opera con una sola conexión. Si inicia múltiples conexiones simultáneas al mismo destino, siempre que exista el ancho de banda en ambos extremos, lo completará, dadas suficientes conexiones concurrentes. Tiene una lectura de routerjockey.com/2009/05/07/how-does-latency-effect-throughput
Layn

2
@Layn: Esa fórmula en ese enlace es cómo calcular el producto de retraso de ancho de banda. Dado un tamaño de ventana lo suficientemente grande, no debería importar. Las conexiones TCP de la costa este a la costa oeste no tienen una limitación dura de 9 mbits por segundo, eso sería una tontería.
Kyle Brandt

1
@Layn: Realmente deberías respaldar declaraciones como esa con un poco de ciencia (o datos ...). Te aseguro que te equivocas. Tenemos oficinas en todo el mundo, y siempre podemos hacerlo mejor de lo que da como ejemplo. Acabo de hacer una prueba scp de Montreal a Buenos Aires (latencia de 145 ms) a 28.8 mbps.
DictatorBob

2
@Layn: Debería poder acercarse a saturar un enlace de 100Mbps con UDP, independientemente de la latencia, por lo que su argumento realmente no vuela.
Jed Daniels
Al usar nuestro sitio, usted reconoce que ha leído y comprende nuestra Política de Cookies y Política de Privacidad.
Licensed under cc by-sa 3.0 with attribution required.