Em nossa infraestrutura de VM, temos hosts em cluster que vão para uma SAN.
O que estou tentando descobrir é o quanto resta de "espaço em branco" ao excluir arquivos em nossos servidores Redhat. No nosso servidor Windows, usamos o sdelete e isso resolve o problema. No entanto, no Linux, estou com dificuldades para encontrar uma solução.
Estou definindo "espaço em branco" como os setores? sobras que não são zeradas, as unidades SSD precisam primeiro zerar antes que possam gravar nela.
Uma coisa que destacarei é que, quando se trata de Linux, eu sei o suficiente para ser perigoso, mas não sou um super usuário.
Examinando as unidades e partições:
[root@rhserver1-DATA10 /]# fdisk -l
Disk /dev/sda: 53.7 GB, 53687091200 bytes, 104857600 sectors
Units = sectors of 1 * 512 = 512 bytes
Sector size (logical/physical): 512 bytes / 512 bytes
I/O size (minimum/optimal): 512 bytes / 512 bytes
Disk label type: dos
Disk identifier: 0x0005d52e
Device Boot Start End Blocks Id System
/dev/sda1 * 2048 1026047 512000 83 Linux
/dev/sda2 1026048 104857599 51915776 8e Linux LVM
Disk /dev/sdb: 53.7 GB, 53687091200 bytes, 104857600 sectors
Units = sectors of 1 * 512 = 512 bytes
Sector size (logical/physical): 512 bytes / 512 bytes
I/O size (minimum/optimal): 512 bytes / 512 bytes
Disk /dev/mapper/rhel_rhserver1--data10-root: 51.0 GB, 50964987904 bytes, 99540992 sectors
Units = sectors of 1 * 512 = 512 bytes
Sector size (logical/physical): 512 bytes / 512 bytes
I/O size (minimum/optimal): 512 bytes / 512 bytes
Disk /dev/mapper/rhel_rhserver1--data10-swap: 2147 MB, 2147483648 bytes, 4194304 sectors
Units = sectors of 1 * 512 = 512 bytes
Sector size (logical/physical): 512 bytes / 512 bytes
I/O size (minimum/optimal): 512 bytes / 512 bytes
Agora, olhando para o uso do disco:
[root@rhserver1-DATA10 /]# df -h
Filesystem Size Used Avail Use% Mounted on
/dev/mapper/rhel_rhserver1--data10-root 48G 6.1G 42G 13% /
devtmpfs 906M 0 906M 0% /dev
tmpfs 921M 340K 920M 1% /dev/shm
tmpfs 921M 90M 831M 10% /run
tmpfs 921M 0 921M 0% /sys/fs/cgroup
/dev/sdb 50G 3.5G 44G 8% /ACMS01Backup
/dev/sda1 497M 210M 288M 43% /boot
tmpfs 185M 20K 185M 1% /run/user/1000
tmpfs 185M 0 185M 0% /run/user/1002
Depois de muitas horas pesquisando no Google, achei que estava me mostrando quanto "espaço em branco" está disponível para ser resolvido.
[root@rhserver1-DATA10 /]# parted /dev/sda unit MB print free | grep 'Free Space' | tail -n1 | awk '{print $3}'
1.02MB
[root@rhserver1-DATA10 /]# parted /dev/sda unit '%' print free | grep 'Free Space' | tail -n1 | awk '{print $3}'
0.00%
Eu acho que uma saída razoável para uma partição 497M.
Então agora eu quero fazer a mesma coisa apenas na minha unidade montada (acho que está montada).
parted /dev/mapper/rhel_rhserver1--data10-root unit MB print free | grep 'Free Space' | tail -n1 | awk '{print $3}'
parted /dev/mapper/rhel_rhserver1--data10-root unit '%' print free | grep 'Free Space' | tail -n1 | awk '{print $3}'
O que não me dá nada.
Meu / etc / fstab /:
[root@rhserver1-DATA10 /]# cat /etc/fstab
/dev/mapper/rhel_rhserver1--data10-root / xfs defaults 0 0
UUID=2f97a17c-a6d5-4904-ad5c-7c16b4510201 /boot xfs defaults 0 0
/dev/mapper/rhel_rhserver1--data10-swap swap swap defaults 0 0
/dev/disk/by-uuid/be4c45cf-5d72-4b97-b647-2e585947041f /ACMS01Backup auto nosuid,nodev,nofail,x-gvfs-show 0 0
Então, minha pergunta é: estou no caminho certo?
Expliquei bem o que estou procurando?
Existe um termo para "espaço em branco" que possa ajudar meu Google?
Eu descobri que posso executar "fstrim -v /" na raiz, mas eu realmente gostaria de saber quanto espaço existe.
Também estou tentando descobrir que o sistema de produção é intensivo em E / S, deve ser executado fora do horário de pico?
Alguma chance de perda de dados executando "fstrim -v /"?
blkid
e veja se você pode obter o UUID e execute novamente o parted
comando.
discard
opção de montagem nos sistemas de arquivos.