Se um conjunto de arquivos (vários GBs cada um) e cada um muda um pouco todos os dias (em locais aleatórios, não apenas as informações anexadas no final), como ele pode ser copiado com eficiência? Quero dizer, no sentido de que apenas as partes alteradas são atualizadas, e não os arquivos inteiros. Isso significaria a diferença entre copiar alguns Kb aqui e ali ou alguns GBs.
diff
pode ser capaz de relatar diferenças, mas aqui o problema está copiando as pequenas diferenças.
rsync
é melhor
diff
vai fazê-lo #