¿Es un puerto de 10 conciertos lo mismo que diez puertos de 1 concierto?


17

Me lo he estado preguntando durante un par de días y después de un montón de búsquedas no pude encontrar una respuesta comprensible, ni siquiera una respuesta teórica que tenga sentido en mi cabeza.

Estoy jugando con soluciones para alojamiento de Mac y me preguntaba si podría agregar tarjetas de red Thunderbolt Ethernet a las Mac y vincularlas en las VLAN y, por lo tanto, resolver los cuellos de botella de ancho de banda a las máquinas para aumentar las velocidades de acceso a una base de datos o almacenamiento externo .

Por ejemplo: conecte dos tarjetas ethernet a una Mac Mini, únalas y tenga una VLAN con un ancho de banda de 2 Gb / s.


8
N 1 puertos de concierto no es lo mismo que 1 puerto de concierto.
EEAA

1
Eso no se llama VLAN, una VLAN significa otra cosa.
user253751

1
Lo que está buscando es la agregación de enlaces, algunos conmutadores admiten eso, necesitaría encontrar adaptadores compatibles con controladores que lo admitan.
Gizmo

Respuestas:


39

En pocas palabras, no, son diferentes:

  • con una interfaz de 10 GbE, obtienes un ancho de banda de 10 Gb / s incluso para una sola conexión
  • con 10 interfaces de 1 GbE (y usando el protocolo 802.ad), una sola conexión / sesión está limitada a 1 Gb / s solamente. Por otro lado, puede servir 10 sesiones simultáneas cada una con un ancho de banda de 1 Gb / s

En otras palabras, la unión generalmente no aumenta la velocidad de una sola conexión. La única excepción es la vinculación de Linux tipo 0 (balance-rr), que envía paquetes de forma circular, pero tiene inconvenientes significativos y escalado limitado. Para un ejemplo práctico, mira aquí


16
No, no es así como funciona la unión.
EEAA

2
Excelente y correcta respuesta, pero seamos útiles. Si bien es teóricamente diferente y OP puede no ser semánticamente preciso, la agregación de enlaces sigue siendo una solución muy adecuada para el problema original, los cuellos de botella de ancho de banda.
Esa Jokinen

44
@ConstantinJacob Bonding generalmente dividirá algunos de los campos en el encabezado y los usará para elegir un enlace en el paquete. Si hay suficiente variación en los campos que se van a dividir, el tráfico se distribuirá de manera uniforme. Si los campos en hash son todos iguales, solo se utilizará un enlace en el paquete. Los campos incluidos en el hash dependen de la implementación, pero generalmente incluirían campos como MAC / IP / puerto de origen / destino y el número de protocolo.
kasperd

55
@ConstantinJacob redactado de forma ligeramente diferente. Cada conexión TCP que ejecute en su paquete se asignará a un enlace aleatorio en el paquete. Si tiene 10 conexiones TCP, puede tener la suerte de que obtengan un enlace cada una. Pero es mucho más probable que haya uno o más enlaces inactivos y algunas de las conexiones TCP compartirán enlaces. Este es un caso del problema del colector de cupones y debe esperar alcanzar unas 30 conexiones TCP antes de comenzar a utilizar todos los enlaces, y aún más antes de que el tráfico sea uniforme.
kasperd

8
Desde el punto de vista comercial, hay otra gran diferencia. Primero, un conmutador de 10 GbE de 48 puertos todavía cuesta menos que diez conmutadores de 1 Gb de 48 puertos. Conectar y administrar 48 cables es mucho más fácil que 480 cables. Los servidores tienen un número limitado de ranuras para tarjetas, por lo que una tarjeta de 10 GbE puede transportar fácilmente 20 Gbps, tal vez 40 Gbps, pero una sola tarjeta de 1 Gb generalmente solo puede transportar 4 Gbps. Si llamamos a todo eso algo así como "densidad de ancho de banda", entonces la mayor densidad de ancho de banda de 10 GbE tiene beneficios reales de ingeniería y costos.
Todd Wilcox

20

10 gb / s a ​​través de x10 puertos de 1 gb / s

Estoy respondiendo solo por completo y para ahorrarle algunos dolores de cabeza. Tengo más de 20k servidores haciendo algo similar a esto y puedo decirte que es una mala idea. Este método agrega mucha complejidad que causará problemas operativos más adelante. Lo hicimos con 4 nics de 1 gb por servidor. En ese momento, en realidad tenía más sentido que ir 10gig. En ese momento, 10gig en todas partes habría sido muchas veces el costo por muy poca ganancia. Nuestras iteraciones recientes de nuestros centros de datos ya no hacen esto.

Un enlace LACP ( modo 4 ) con un solo socio LAG le dará 10 gb / s, casi lo mismo que un solo puerto de 10 gb / s. En realidad, esto se puede hacer usando más de 1 interruptor, pero tienen que admitir MLAG, de lo contrario, debe conectarse solo a un interruptor. Si no son compatibles con MLAG, solo obtienes 1 interruptor de ancho de banda. Las otras interfaces estarán en espera. (entonces 5gb / s si tiene 2 interruptores).

Una sola conexión solo utilizará un enlace, pero puede dividir el tráfico donde sea necesario en la capa 7 si lo necesita, o podría buscar en MPTCP, pero el soporte para eso es nuevo en los núcleos recientes y no estoy seguro de que esté listo para el horario estelar. Puede dividir la sincronización de datos utilizando LFTP + SFTP y el subsistema espejo de LFTP. Incluso puede dividir un archivo en múltiples transmisiones. También hay bittorrent.

No podrá hacer DHCP en estos puertos desde la perspectiva del cliente para iniciar PXE un instalador del sistema operativo , a menos que fuerce eth0 en el lado del servidor que técnicamente interrumpe la supervisión de LACP. Se puede hacer, pero no se debe hacer y hará que los problemas de solución de problemas sean más difíciles si fuerza una interfaz.

En su configuración de enlace, tendrá que generar una dirección MAC única que sea diferente a todas sus interfaces físicas, o tendrá condiciones de carrera debido a la forma en que funciona PXE / DHCP, suponiendo que haya DHCP / PXE en su configuración. Hay muchos ejemplos en línea de cómo generar el MAC bond0 único sobre la marcha.

Esto también requiere una configuración en el lado del conmutador que se alinee con la configuración de enlace de cada uno de sus servidores. Deberá tener instalado el demonio LLDP para que la solución de problemas sea menos dolorosa, y LLDP habilitado en sus conmutadores.

Si hace esto, su etiquetado y etiquetado deben ser perfectos. La automatización de su interruptor debe ser sólida. Un desplazamiento de cable que mezcla 2 servidores causará problemas muy divertidos.

Felicitaciones a Jay en IBM por hacer que el código de enlace sea tan bueno como lo hizo y por ayudarnos a descubrir cómo hacer que DHCP funcione en esta configuración.


1
Tengo curiosidad por saber dónde trabajas para tener 20k nodos con enlaces enlazados 4x1 ... esa es una infraestructura no trivial que estás describiendo jajaja.
Kaithar

"No podrá hacer DHCP en estos puertos" - ¿Es ese cliente o servidor DHCP , o ambos?
MSalters

En el cliente Si arranca sus servidores, entonces tendría que forzar eth0 y forzar el puerto del switch eth0, o deberá usar otro método para cargar el sistema operativo.
Aaron

1
@Kaithar secundo el aspecto no trivial. Sugeriría que fue un ejercicio académico que fue demasiado lejos para acomodar dos clases de servidores. La uniformidad dominó el diseño general. Ahora que todo va a 10 gb / s duales, todavía estamos haciendo LACP con un socio MLAG, por lo que 20 gb / s en total y no más interfaces forzadas.
Aaron

0

Depende. Si el protocolo de tráfico primario tiene un equilibrio de carga de múltiples rutas incorporado, por ejemplo, iSCSI, esto funciona muy bien. La vinculación tiene una serie de problemas que las otras respuestas ya describen.

Al usar nuestro sitio, usted reconoce que ha leído y comprende nuestra Política de Cookies y Política de Privacidad.
Licensed under cc by-sa 3.0 with attribution required.