Puedo enviar un paquete IP a Europa más rápido de lo que puedo enviar un píxel a la pantalla. ¿Qué tal está eso?
Y si no fuera John Carmack, lo archivaría bajo "las interwebs son tontas".
Pero este es John Carmack.
¿Cómo puede ser esto cierto?
Para evitar discusiones sobre qué se entiende exactamente en el tweet, esto es lo que me gustaría recibir respuesta:
¿Cuánto tiempo lleva, en el mejor de los casos, enviar un único paquete IP desde un servidor en los EE. UU. A algún lugar de Europa, midiendo desde el momento en que un software dispara el paquete hasta el punto en que lo recibe un software anterior? nivel del conductor?
¿Cuánto tiempo lleva, en el mejor de los casos, que se muestre un píxel en la pantalla, medido desde el punto en que un software por encima del nivel del controlador cambia el valor de ese píxel?
Incluso suponiendo que la conexión transatlántica es el mejor cable de fibra óptica que el dinero puede comprar, y que John está sentado justo al lado de su ISP, los datos aún deben codificarse en un paquete IP, pasar de la memoria principal a su tarjeta de red , desde allí a través de un cable en la pared hacia otro edificio, probablemente salte a través de algunos servidores allí (pero supongamos que solo necesita un solo relé), se fotoniza a través del océano, se convierte nuevamente en un impulso eléctrico por un fotosensor, y finalmente interpretado por otra tarjeta de red. Paremos ahí.
En cuanto al píxel, esta es una palabra de máquina simple que se envía a través de la ranura PCI express, escrita en un búfer, que luego se vacía en la pantalla. Incluso teniendo en cuenta el hecho de que "píxeles individuales" probablemente den como resultado que se transmita todo el búfer de la pantalla a la pantalla, no veo cómo esto puede ser más lento: no es como si los bits se transfirieran "uno por uno", sino que son impulsos eléctricos consecutivos que se transfieren sin latencia entre ellos (¿verdad?).