Quase duas décadas atrás, teria sido dominada pela variedade de Windows 98 a XP, incluindo NT4 e 2000 no lado da estação de trabalho / servidor.
Todos os discos rígidos também teriam armazenamento magnético com cabo PATA ou SCSI, pois os SSDs custam mais que o computador e o SATA não existia.
Como a resposta de WooShell diz, os setores lógicos mais baixos na unidade (fora da bandeja) tendem a ser os mais rápidos. Minhas unidades Velociraptor de 1 TB WDC começam em 215 MB / s, mas caem para 125 MB / s nos setores externos, uma queda de 40%. E essa é uma unidade de prato de 2,5 "; portanto, a maioria das unidades de 3,5" geralmente apresenta uma queda no desempenho ainda maior , superior a 50% . Esse é o principal motivo para manter a partição principal pequena, mas só se aplica onde a partição é pequena em relação ao tamanho da unidade.
O outro principal motivo para manter a partição pequena foi se você estivesse usando o FAT32 como sistema de arquivos, que não suportava partições maiores que 32 GB. Se você estava usando NTFS, as partições de até 2 TB eram suportadas antes do Windows 2000 e, em seguida, de 256 TB.
Se sua partição for muito pequena em relação à quantidade de dados que seria gravada, é mais fácil fragmentar-se e mais difícil desfragmentar. Você pode simplesmente ficar sem espaço como o que aconteceu com você. Se você tiver muitos arquivos em relação aos tamanhos da partição e do cluster, o gerenciamento da tabela de arquivos poderá ser problemático e afetar o desempenho. Se você estiver usando volumes dinâmicos para redundância, manter os volumes redundantes tão pequenos quanto necessário economizará espaço nos outros discos.
Hoje as coisas são diferentes, o armazenamento do cliente é dominado por SSDs flash ou unidades magnéticas aceleradas por flash. O armazenamento é geralmente abundante e é fácil adicionar mais a uma estação de trabalho, enquanto nos dias PATA, você pode ter apenas uma única conexão de unidade não utilizada para dispositivos de armazenamento adicionais.
Então, isso ainda é uma boa ideia ou tem algum benefício? Isso depende dos dados que você mantém e como os gerencia. Minha estação de trabalho C: tem apenas 80 GB, mas o próprio computador possui mais de 12 TB de armazenamento, distribuídos por várias unidades. Cada partição contém apenas um determinado tipo de dados, e o tamanho do cluster é correspondido ao tipo de dados e ao tamanho da partição, o que mantém a fragmentação próxima de 0 e evita que o MFT seja excessivamente grande.
O tamanho reduzido é que há espaço não utilizado, mas o desempenho aumenta mais do que compensa e, se eu quiser mais armazenamento, adiciono mais unidades. C: contém o sistema operacional e aplicativos usados com freqüência. P: contém aplicativos menos utilizados e é um SSD de 128 GB com uma classificação de durabilidade de gravação menor que C :. T: está em um SSD SLC menor e contém arquivos temporários do usuário e do sistema operacional, incluindo o cache do navegador. Os arquivos de vídeo e áudio são armazenados magneticamente, assim como as imagens de máquinas virtuais, backups e dados arquivados, geralmente possuem tamanhos de cluster de 16 KB ou maiores e as leituras / gravações são dominadas pelo acesso seqüencial. Executo a desfragmentação apenas uma vez por ano em partições com alto volume de gravação e leva cerca de 10 minutos para fazer todo o sistema.
Meu laptop possui apenas um único SSD de 128 GB e um caso de uso diferente, portanto não posso fazer a mesma coisa, mas ainda assim me separo em 3 partições, C: (SO e programas de 80 GB), T: (temperatura de 8 GB) e F: ( Arquivos de usuário de 24 GB), que faz um bom trabalho no controle da fragmentação sem desperdiçar espaço, e o laptop será substituído muito antes de eu ficar sem espaço. Também facilita o backup, pois F: contém os únicos dados importantes que são alterados regularmente.