Existem várias maneiras de lidar com dados desse tamanho. Muito disso depende do seu ambiente e de quanto dinheiro você está disposto a gastar. Em geral, existem algumas estratégias gerais de 'tirar os dados do servidor':
- Sobre a Ethernet Como diz a caixa, os dados são transmitidos para outros locais para manipulação. 20 TB demorará muito tempo para copiar mais de 1 GbE, mas isso pode ser feito. O hardware pode ajudar (como links de 10 GbE ou, em alguns casos, ligação de NIC).
- Sobre o subsistema de armazenamento Se você estiver no Fibre Channel, envie-o para outro dispositivo na rede FC. Se você possui SAS, envie-o para um dispositivo conectado ao SAS. Geralmente mais rápido que Ethernet.
- Envie para outra matriz de disco Envie para outro pedaço de armazenamento conectado ao mesmo servidor.
Essa é a visão de 100 km. Quando você começa a aumentar o zoom, as coisas ficam muito mais fragmentadas. Como já mencionado, o LTO5 é uma tecnologia de fita específica projetada para esses tipos de cargas de alta densidade. Outra matriz de armazenamento idêntica é um bom alvo, especialmente se você pode usar algo como GlusterFS ou DRBD para obter os dados por lá. Além disso, se você precisar de uma rotação de backup ou apenas a capacidade de continuar executando, caso a matriz falhe, isso afetará o que você implementou.
Depois de escolher um método de visualização de 100 km, entrar no software será a próxima grande tarefa. Fatores que influenciam isso são o que você pode instalar em seu servidor de armazenamento em primeiro lugar (se é um NetApp, uma coisa, um servidor Linux com um monte de armazenamento é outra coisa completamente diferente, assim como um servidor Windows com um monte de armazenamento) , qual hardware você escolhe (nem todos os pacotes de backup do FOSS lidam bem com bibliotecas de fitas, por exemplo) e que tipo de retenção de backup você precisa.
Você realmente precisa descobrir que tipo de recuperação de desastre deseja. A replicação ao vivo simples é mais fácil, mas não permite que você restaure da semana passada apenas agora. Se a capacidade de restaurar a partir da semana passada é importante para você, é necessário projetar para esse tipo de coisa. Por lei (nos EUA e em outros lugares) alguns dados precisam ser preservados por mais de 7 anos.
A replicação simples é a mais fácil de fazer. É para isso que o DRBD foi projetado para fazer. Uma vez que a cópia inicial é feita, ela apenas envia alterações. Os fatores complicadores aqui são a localidade da rede, se a sua segunda matriz não estiver próxima ao DRBD principal, pode não ser possível. Você precisará de um segundo servidor de armazenamento com pelo menos tanto espaço de armazenamento quanto o primeiro.
Sobre o backup em fita ...
O LTO5 pode conter 1,5 TB de dados sem compactação. A alimentação desses monstros requer uma rede muito rápida, que é Fibre Channel ou SAS de 6 GB. Como você precisa fazer backup de mais de 1,5 TB em um whack, é necessário pesquisar em carregadores automáticos (eis um exemplo: link , um carregador automático de 1 slot de 24 slots da HP). Com o software que os suporta, eles cuidam da troca de fitas no meio do backup para você. Êles são ótimos. Você ainda terá que retirar as fitas para enviá-las para fora do local, mas é uma visão muito melhor do que ficar andando a noite toda para carregar as fitas quando o backup pedir por elas.
Se a fita fornecer os itens ' legados, ew ', uma Biblioteca de fitas virtuais poderá ter mais velocidade (como a Quantum: link ). Eles fingem ser bibliotecas de fita para fazer backup de software e, na verdade, armazenam coisas em disco com técnicas robustas de desduplicação (você espera). Os mais extravagantes até copiarão fitas virtuais para fitas reais para você, se você gosta desse tipo de coisa, que pode ser muito útil para rotações fora do local.
Se você não quiser mexer nem com fitas virtuais, mas ainda quiser fazer backups diretos em disco, precisará de uma matriz de armazenamento grande o suficiente para lidar com esses 20 TB, além de quantos dados de alteração de rede desejar para manter um porão. Pacotes de backup diferentes lidam com isso de maneira diferente. Algumas tecnologias de desduplicação são realmente legais, outras são cláusulas hacky. Pessoalmente, não conheço o estado dos pacotes de software de backup FOSS nessa área (ouvi falar do Bacula), mas eles podem ser suficientes. Muitos pacotes de backup comercial têm agentes locais que você instala em servidores para backup, a fim de aumentar a taxa de transferência, que tem muitos méritos.