Sí (y no, no es la velocidad de Internet , y no es la velocidad per se).
Velocidad
La velocidad es una redacción muy poco precisa que entremezcla dos cosas diferentes que son ampliamente independientes pero que interactúan entre sí: latencia y ancho de banda.
Además, la velocidad que observa no es la velocidad de Internet . Es una mezcla muy compleja de muchas cosas que suceden en su extremo (su computadora), en el otro extremo (servidor) y en varios puntos intermedios. Lo que puede ser algo totalmente diferente con el próximo servidor al que acceda, incluso si ese está tan lejos (o más lejos).
Ancho de banda
El ancho de banda es la cantidad de datos que puede, en teoría, empujar al cable por unidad de tiempo. Por lo general, hay límites duros y blandos para eso. El límite difícil sería lo que la línea puede tomar, y luego está lo que paga y lo que el proveedor le permitirá (¡generalmente menos!). A menudo, las transferencias no son uniformes, comienzan más rápido y luego se aceleran muy pronto.
Por ejemplo, tengo un enlace ascendente de 96Mbit / s con una capacidad de línea física de 112Mbit / s. Esto se debe a que para una mayor estabilidad, se usa menos ancho de banda de lo que sería realmente posible. Sin embargo, solo pago 50Mbit / s (que es suficiente para mis necesidades, y 10 € por mes más barato), a pesar de obtener 96Mbit / s. Espera ... ¿cómo funciona eso? ¿Por qué alguien pagaría más dinero entonces? Bueno, transmito todo a 96MBit / s, pero el proveedor, después de un tiempo muy corto (menos de 0.1 segundos) me bloquea de forma encubierta, y solo permite que se envíen / reciban más datos una vez que haya pasado el tiempo suficiente, así que estoy dentro la cuota que pagué Por lo tanto, en promedio, tengo mis 50Mbit / s. Suceden cosas muy similares en varios lugares dentro de Internet por donde también pasará su tráfico (sin que usted lo sepa). El tráfico está siendo "moldeado"
El ancho de banda en Internet es, en su mayor parte, tan grande que, excepto durante los ataques DDoS en todo el país, no es un factor limitante de ninguna manera. Bueno, en teoría, y en la mayoría de las partes del mundo, eso es.
Sin embargo, existen cuellos de botella: uno está en su extremo, el siguiente obvio está en el extremo del servidor, y existe la posibilidad muy real de que si interactúa con un servidor en una ubicación geográfica diferente, especialmente un país del tercer mundo, ese ancho de banda total será significativamente peor que cualquiera de los dos. Algunos países del sudeste asiático tienen internacionalenlaces ascendentes que no son mucho más altos que lo que un puñado de usuarios domésticos individuales tienen en otros países (o incluso en el mismo país). No sé si este sigue siendo el caso (las cosas cambian muy rápido en el mundo), pero, por ejemplo, en Tailandia, acceder a un servidor dentro del mismo país solía ser 4 veces más rápido que acceder a un servidor en otro país, por solo esa razon. Lo mismo ocurriría si intentaras acceder a un servidor dentro de su país.
Aunque el ancho de banda dentro de su ubicación puede ser alto, es la conexión más lenta en la cadena que limita la cantidad de datos que puede pasar (al igual que en una tubería de agua). Una distancia más larga significa que generalmente hay más oportunidades para encontrar un enlace lento (o congestionado).
Estado latente
La latencia es el tiempo que tarda una señal en llegar a su ubicación (o cualquier ubicación en particular) desde algún punto.
Primero, está la velocidad de la luz, que es (no) constante y, al ser un límite físico difícil, no se puede evitar. ¿Por qué digo "(no) constante"?Bueno, porque la realidad es incluso peor que la teoría. La velocidad de la luz es realmente un límite superior, medido en vacío. En un cable de cobre o incluso más en un cable de fibra óptica, la velocidad medible de la luz es fácilmente un 30% más lenta que en el vacío, además de que la distancia real es más larga. Eso no solo se debe a que el cable no está en una línea perfectamente recta, sino también porque la luz viaja a lo largo del zig-zag de la fibra, rebotando en las paredes (reflexión interna total). Es un desafío difícil (esto significa: imposible) hacer que la velocidad de la luz sea significativamente más rápida. No es que no pudieras hacer eso usando un medio diferente, pero un medio con mayor velocidad de luz significa cambiar el índice de refracción, por lo que reduces, y eventualmente pierdes, la reflexión interna total. Lo que significa que a menos que la señal vaya en una línea perfectamente recta,
Por lo tanto, en resumen, hay un retraso más o menos fijo que es inevitable, y aunque no se nota en las transmisiones locales (LAN, o algunos kilómetros), se vuelve muy notable a medida que la señal atraviesa medio continente. Además de este límite físico difícil, hay demoras introducidas por los enrutadores intermedios, y posiblemente su enlace ascendente local (la infame "última milla").
Por ejemplo, en una conexión de Internet doméstica típica basada en ATM, tiene un retraso de aproximadamente 4 ms solo para que sus datagramas se encapsulen innecesariamente en PPP y se fragmenten en tramas ATM de 53 bytes, se envíen al DSLAM, enrutados dentro la red de cajeros automáticos del proveedor y volver a ensamblar antes de ingresar nuevamente a una red IP. La razón por la que se hace esto es histórica. Érase una vez, el cajero automático parecía un buen plan para permitir llamadas telefónicas de alta calidad y baja latencia a largas distancias. Érase una vez, eso fue en la década de 1980, pero, por desgracia, los proveedores de telecomunicaciones se mueven lentamente.
Incluso para muchas instalaciones que tienen "fibra" en su nombre, en realidad se utiliza alambre de cobre durante los últimos doce metros, la fibra no raramente termina en la calle (aunque sí existe fibra real en el sótano).
Un enrutador de Internet típico agregará algo en el rango de 0.05 a 0.2 milisegundos a su retraso, pero dependiendo de qué tan ocupado esté (cualquiera tal vez no sea de primera clase), esto podría muy bien ser un milisegundo completo. Eso no es mucho, pero tenga en cuenta que tener 6-8 enrutadores entre usted y el servidor de destino no es nada inusual, ¡y es muy posible que tenga 12-15 de ellos en una distancia más larga! Puedes intentar correr tracert some.server.name
para verte a ti mismo.
Una línea que ha sido cortada y aprovechada por la NSA o la SVR (básicamente todas las líneas principales que van desde / hacia el continente asiático, o al otro lado del Mar Rojo, el Mar Índico o el Océano Atlántico) tendrán al menos otros dos milisegundos más o menos. de latencia agregada para las cosas de espionaje que están haciendo, posiblemente más. Se sabe que algunas naciones (o al menos altamente sospechadas) no solo observan el contenido y bloquean ciertos rangos de IP, sino que incluso hacen un filtrado / bloqueo activo extenso de contenido político / ideológicamente inapropiado. Esto puede introducir retrasos mucho más largos.
Por lo tanto, incluso para ubicaciones "cercanas", puede esperar de 15 a 25 ms de retraso, pero para algo en otro país, debe esperar ~ 100 ms, en otro continente 150-250 ms, si tiene mala suerte 400-500 Sra.
Ahora, a pesar de todo, parece que esto no hace mucha diferencia porque esto es solo un retraso inicial único, que apenas se nota. ¿Correcto?
Lamentablemente, eso no es del todo cierto. La mayoría de los protocolos que transmiten cantidades significativas de datos como, por ejemplo, TCP, utilizan una forma de aceleración de ancho de banda controlada por reconocimiento, por lo que la cantidad de datos que puede insertar en el cable depende del tiempo que tome realizar un viaje de ida y vuelta completo (ida y vuelta) otra vez). Esto no es 100% exacto porque TCP intenta optimizar el rendimiento mediante el uso de uno de varios algoritmos de ventanas bastante complejos que envían un par de datagramas antes de esperar el reconocimiento.
Si bien esto de alguna manera puede mitigar el efecto, el principio básico sigue siendo el siguiente: lo que puede enviar (o recibir) finalmente está limitado por el tiempo que tardan en llegar los reconocimientos. Algunos otros protocolos con requisitos de tiempo real más estrictos y requisitos de confiabilidad menos importantes ( piense en la telefonía IP) use una estrategia diferente con diferentes problemas (que no voy a elaborar).
Puede ver qué gran impacto tiene la latencia si compara una implementación TCP pobre (Microsoft Windows) con una mejor (Linux). Si bien ambos hablan el mismo protocolo y aparentemente hacen exactamente lo mismo, no hacen frente a la compensación de latencia igualmente bien.
Tengo una computadora de escritorio (procesador 6700K, 64 GB de RAM, Windows) y una Synology DiskStation (chip ARMv8 de baja potencia, 1 GB de RAM, Linux). La computadora de escritorio, conectada al mismo enrutador, aunque es mucho más potente, no puede saturar completamente la línea de 50 Mbit / s cuando se descarga desde servidores nacionales o dentro de la UE (15-20 ms RTT), incluso con varias descargas simultáneas en vuelo. La maliciosa DiskStation no tiene problemas para saturar completamente la línea en una sola descarga, obteniendo un 15-20% más de rendimiento: el mismo cable, lo mismo todo.
En mi red de área local (donde la latencia está muy por debajo de un milisegundo) no hay una diferencia notable entre los dos. Ese es el efecto de la latencia.
Velocidad ... otra vez
En resumen, sí, puede esperar que la "velocidad" disminuya a medida que aumenta la distancia, principalmente porque aumenta la latencia y, en cierta medida, porque puede tener conexiones de ancho de banda más bajas en el medio. Sin embargo, en su mayor parte, el efecto debería ser tolerable.