Como está escrito en el encabezado, mi pregunta es, ¿por qué TCP / IP usa codificación big endian cuando transmite datos y no el esquema little-endian alternativo?
Respuestas:
RFC1700 declaró que debe ser así . (y orden de bytes de red definido como big-endian).
La convención en la documentación de los protocolos de Internet es expresar números en decimal y representar datos en orden "big-endian" [COHEN]. Es decir, los campos se describen de izquierda a derecha, con el octeto más significativo a la izquierda y el octeto menos significativo a la derecha.
La referencia que hacen es a
On Holy Wars and a Plea for Peace
Cohen, D.
Computer
El resumen se puede encontrar en IEN-137 o en esta página de IEEE .
Resumen:
El camino elegido no hace mucha diferencia. Es más importante acordar una orden que la que se acuerda.
Concluye que ambos esquemas big-endian y little-endian podrían haber sido posibles. No existe un esquema mejor / peor , y cualquiera puede usarse en lugar del otro siempre que sea consistente en todo el sistema / protocolo.