Cuando preguntan al soporte de Gitlab sobre cómo hacer una copia de seguridad de 3TB en los Gitlab locales, responden que usan nuestra herramienta que produce un tarball.
Esto me parece mal en todos los niveles. Este tarball contiene el volcado de postgres, las imágenes del acoplador, los datos de repositorio, la configuración de GIT LFS, etc., etc. Hacer una copia de seguridad de TB de datos estáticos junto con KB de datos muy dinámicos no parece correcto. Y luego viene el problema de que queremos hacer una copia de seguridad cada hora.
Pregunta
Realmente me gustaría saber de otros cómo lo hacen, para obtener una copia de seguridad consistente.
ZFS en Linux estaría bien conmigo, si eso es parte de la solución.
If your GitLab server contains a lot of Git repository data you may find the GitLab backup script to be too slow. In this case you can consider using filesystem snapshots as part of your backup strategy.
sin embargo, no puedo hablar por experiencia. Pero puede que tenga que incluir algo como esto pronto ...