Estoy archivando datos de un servidor a otro. Inicialmente comencé un rsync
trabajo. Le tomó 2 semanas construir la lista de archivos solo para 5 TB de datos y otra semana para transferir 1 TB de datos.
Luego tuve que matar el trabajo ya que necesitamos un tiempo de inactividad en el nuevo servidor.
Se acordó que lo alquilaremos, ya que probablemente no necesitemos acceder a él nuevamente. Estaba pensando en dividirlo en trozos de 500 GB. Después de eso tar
, iba a copiarlo ssh
. Estaba usando tar
y pigz
todavía es demasiado lento.
Hay una mejor manera de hacerlo? Creo que ambos servidores están en Redhat. El servidor anterior es Ext4 y el nuevo es XFS.
Los tamaños de archivo varían de pocos kb a pocos mb y hay 24 millones de jpegs en 5TB. Entonces supongo que alrededor de 60-80 millones por 15 TB.
editar: Después de jugar con rsync, nc, tar, mbuffer y pigz durante un par de días. El cuello de botella será el disco IO. A medida que los datos se dividen en 500 discos SAS y alrededor de 250 millones de archivos JPEG. Sin embargo, ahora aprendí sobre todas estas buenas herramientas que puedo usar en el futuro.