consolidação e descomissionamento de dados pela rede


0

Recentemente, fui encarregado de consolidar nosso espaço de dados em toda a nossa rede. Temos vários terabytes de dados que existem em vários servidores e eu estimaria que cerca de 30-40% dos dados são inúteis. Eu classificaria dados "inúteis" como dados que não foram tocados em mais de 7 anos porque alguém mudou para um novo local e nunca limpou o antigo, ou é apenas irrelevante e antigo.

Minha pergunta é...

Existe uma ferramenta que me permite verificar grandes quantidades de dados para me ajudar a identificar possíveis diretórios órfãos em nossa rede?


1
Órfão em relação a quê? Você quer dizer único? Sem duplicatas? Sem referências? Eu não recomendaria nenhum método automatizado que fosse destrutivo de forma alguma, e a varredura destruirá os últimos tempos de acesso dos arquivos. Os dados são sagrados. Eu tenho medo que este é um trabalho horrível que necessariamente precisa de atenção meticulosa aos detalhes.
Andy Lee Robinson

Você quer apenas uma ferramenta que irá procurar por arquivos com mais de 7 anos ??
soandos

@soandos: acho que seria um bom começo.
Michael J. Lee

@Andy: Estou pensando em mover os dados suspeitos para uma fita ou unidade externa. Eu não planejo fazer qualquer deleção.
Michael J. Lee

Existe algum outro critério?
soandos

Respostas:


1

Aqui está uma sugestão, procure por DoubleKiller - Eu achei muito útil para identificar arquivos duplicados através de terabytes de coisas, tem muitas opções de pesquisa e restrições sobre quais diretórios procurar. É uma ferramenta útil para o arsenal, mas como com qualquer coisa que leia arquivos destruirá tempos de acesso, se eles puderem ser precisados ​​no futuro.


legal! Correndo agora :)
Michael J. Lee

ótimo, feliz por poder ajudar ...
Andy Lee Robinson
Ao utilizar nosso site, você reconhece que leu e compreendeu nossa Política de Cookies e nossa Política de Privacidade.
Licensed under cc by-sa 3.0 with attribution required.