Ao solicitar ao Gitlab suporte sobre como fazer um backup de 3 TB no Gitlab local, eles respondem usando nossa ferramenta que produz um tarball.
Isso me parece errado em todos os níveis. Este tarball contém o despejo do postgres, imagens do docker, dados de repo, GIT LFS, etc configuração e assim por diante. O backup da TB de dados estáticos, juntamente com os dados muito dinâmicos da KB, não é o ideal. E então vem a questão de: queremos fazer um backup a cada hora.
Questão
Eu realmente gostaria de saber dos outros como eles fazem isso, para obter um backup consistente.
O ZFS no Linux ficaria bem comigo, se isso faz parte da solução.
If your GitLab server contains a lot of Git repository data you may find the GitLab backup script to be too slow. In this case you can consider using filesystem snapshots as part of your backup strategy.
embora não possa falar por experiência própria. Mas eu posso ter que incluir algo como isso em breve ...