Estou arquivando dados de um servidor para outro. Inicialmente, comecei um rsync
trabalho. Levou duas semanas para criar a lista de arquivos apenas para 5 TB de dados e outra semana para transferir 1 TB de dados.
Então tive que interromper o trabalho, pois precisamos de algum tempo de inatividade no novo servidor.
Foi acordado que iremos tará-lo, pois provavelmente não precisaremos acessá-lo novamente. Eu estava pensando em dividi-lo em pedaços de 500 GB. Depois tar
disso, eu iria copiá-lo ssh
. Eu estava usando tar
e pigz
ainda é muito lento.
Há uma melhor forma de fazê-lo? Eu acho que os dois servidores estão no Redhat. O servidor antigo é o Ext4 e o novo é o XFS.
Os tamanhos dos arquivos variam de alguns kb a poucos mb e existem 24 milhões de jpegs em 5 TB. Então, acho que entre 60 e 80 milhões por 15 TB.
edit: Depois de jogar com rsync, nc, tar, mbuffer e pigz por alguns dias. O gargalo será a E / S do disco. Como os dados são distribuídos por 500 discos SAS e cerca de 250 milhões de jpegs. No entanto, agora eu aprendi sobre todas essas boas ferramentas que eu posso usar no futuro.