Existe um motivo para manter a partição / unidade primária do Windows C: pequena?


70

Nos meus trabalhos há quase duas décadas, os especialistas em TI manteriam o tamanho da partição principal do Windows (unidade C) extremamente pequena em comparação com as outras partições. Eles argumentaram que isso roda o PC na velocidade ideal sem diminuir a velocidade.

Mas a desvantagem é que a unidade C: se preenche facilmente se mantida pequena e logo você não pode instalar um novo software, pois fica sem espaço. Mesmo se eu instalar um software na unidade D: parte dela será sempre copiada para C:

Minha pergunta: essa prática ainda é boa? Por que isso é feito? Quais são as principais vantagens, se houver? Um exemplo óbvio é que, se a partição primária falhar, seus dados estarão seguros no secundário.

O motivo pelo qual estou fazendo essa pergunta é porque estou tentando atualizar o Visual Studio e não posso porque tenho apenas 24 MB restantes na partição primária.


2
O que você quer dizer com "tamanho da partição principal pequena (como 100 GB)"? 100GB não é "pequeno" pela maioria das medidas? Você quer dizer "menor que toda a unidade"? E por "partição principal", você quer dizer a partição que abriga o sistema de arquivos da unidade C do Windows:? E qual é a captura de tela que você postou para explicar? Ele mostra apenas uma unidade completa ... Edite para esclarecer.
Sleske

10
100 GB podem não parecer pequenos, mas hoje em dia grandes softwares enchem isso rapidamente, como no meu caso. Partição principal = Partição primária = Partição de inicialização. A captura de tela mostra meu partidário principal (unidade c :) e vê que restam apenas 24 MB. Meu D: é 90 GB grátis e E: é 183 GB grátis.
hk_

11
Tomei a liberdade de editar sua pergunta para esclarecer. No futuro, é melhor que você edite diretamente sua pergunta para adicionar informações - os comentários podem ser removidos e nem todos lerão todos.
Sleske

28
Eu diria que esses 'especialistas' estavam errados na época e estão errados agora. Tenho certeza de que há casos em que uma pequena unidade C: pode / foi útil, mas para a maioria dos usuários normais (incluindo desenvolvedores), o padrão de ter uma única partição C: do maior tamanho possível é a melhor coisa fazer exatamente por causa do problema que você tem.
Neil

11
Lembre-se de que nem sempre é possível alterar a unidade em que um programa está instalado (por exemplo, MS Office) e pode ser necessário mais espaço do que o planejado inicialmente.
Njin22

Respostas:


89

Nos meus trabalhos há quase duas décadas, os especialistas em TI manteriam o tamanho da partição principal do Windows (unidade C) extremamente pequena em comparação com as outras partições. Eles argumentaram que isso roda o PC na velocidade ideal sem diminuir a velocidade. [...] minha pergunta essa prática ainda é boa?

Em geral: não .

Nas versões mais antigas do Windows, havia problemas de desempenho com unidades grandes (mais precisamente: com sistemas de arquivos grandes), principalmente porque o sistema de arquivos FAT usado pelo Windows não suportava bem grandes sistemas de arquivos. No entanto, todas as instalações modernas do Windows usam NTFS, o que resolveu esses problemas. Veja, por exemplo, o desempenho do NTFS diminui significativamente em volumes maiores que cinco ou seis TB? , o que explica que mesmo partições do tamanho de terabytes geralmente não são um problema.

Atualmente, geralmente não há razão para não usar uma única partição C: grande. O instalador da Microsoft usa como padrão a criação de uma única unidade C: grande. Se houvesse boas razões para criar uma partição de dados separada, o instalador a ofereceria - por que a Microsoft deveria permitir que você instale o Windows de maneira a criar problemas?

O principal motivo contra várias unidades é que aumenta a complexidade - o que é sempre ruim em TI. Cria novos problemas, como:

  • você precisa decidir quais arquivos colocar em qual unidade (e alterar as configurações adequadamente, clique em itens nos instaladores etc.)
  • alguns softwares (mal escritos) podem não gostar de não serem colocados em uma unidade diferente de C:
  • você pode acabar com muito pouco espaço livre em uma partição, enquanto a outra ainda possui espaço livre, o que pode ser difícil de corrigir

Existem alguns casos especiais em que várias partições ainda fazem sentido:

  • Se você deseja inicializar duas vezes, precisará (normalmente) de partições separadas para cada instalação do sistema operacional (mas ainda apenas uma partição por instalação).
  • Se você tiver mais de uma unidade (principalmente unidades com características diferentes, como SSD e HD), poderá escolher o que vai aonde - nesse caso, pode fazer sentido, por exemplo, colocar a unidade C: no SSD e D : no HD.

Para abordar alguns argumentos frequentemente levantados em favor de partições pequenas / separadas:

  • partições pequenas são mais fáceis de fazer backup

Você realmente deve fazer backup de todos os seus dados de qualquer maneira, dividi-los entre partições não ajuda. Além disso, se você realmente precisar fazer isso, todos os softwares de backup que conheço permitem fazer backup seletivo de uma parte de uma partição.

  • se uma partição estiver danificada, a outra ainda poderá estar ok

Embora isso seja teoricamente verdade, não há garantia de que o dano se limitará muito bem a uma partição (e é ainda mais difícil verificar isso em caso de problemas), portanto, isso fornece apenas garantia limitada. Além disso, se você tiver backups bons e redundantes, a segurança adicional geralmente é pequena demais para valer a pena. E se você não tiver backups, terá problemas muito maiores ...

  • se você colocar todos os dados do usuário em uma partição de dados, poderá limpar e reinstalar / não fazer backup da partição do SO, porque não há dados do usuário

Embora isso possa ser verdade na teoria, na prática, muitos programas gravam configurações e outros dados importantes na unidade C: (porque infelizmente são codificados para isso ou porque você esqueceu acidentalmente de alterar as configurações). Portanto, IMHO é muito arriscado contar com isso. Além disso, você precisa de bons backups de qualquer maneira (veja acima); portanto, após a reinstalação, você pode restaurar os backups, o que fornecerá o mesmo resultado (apenas com mais segurança). As versões modernas do Windows já mantêm os dados do usuário em um diretório separado (diretório de perfil do usuário), possibilitando a restauração seletiva.


Consulte também Você instalará o software na mesma partição que o sistema Windows? Para maiores informações.


3
várias partições também fazem sentido se você deseja remover os dados do usuário de C: \ desacoplando-os de (m) qualquer problema com o sistema operacional. Você poderia, então, instalar outro sistema operacional em seu lugar e seus dados de usuário continua a ser seguro (desde que a partição do usuário não é excluído)
Baldrickk

11
Convém executar um backup de imagem para a partição do sistema, enquanto um simples backup de dados para todas as outras partições é suficiente.
Thomas

26
O restante da sua resposta é boa, mas "o instalador permite que você faça isso" não é uma maneira válida de verificar se algo está bom ou não. Por que eles fariam isso? Esquecimento, estupidez, preguiça, ignorância, limitações técnicas, gerência intermediária ... Há um milhão de razões para o instalador fazer a coisa errada por padrão, e muito menos deixá- lo fazer a coisa errada. Isso se aplica duplamente a um sistema tão complexo quanto o Windows.
22818 Nic Hartley

2
Lembro-me do WinXP e Win 7, permitindo ao usuário criar várias partições e definir o tamanho das partições durante a instalação. Não me lembro se esse é mais o caso, no entanto. A EM é conhecida por tomar más decisões, aparentemente por um capricho, e apoiá-las por anos antes de tomar outra má decisão para "consertar" o (não) problema. Além disso, os usuários técnicos / artísticos que precisam manipular arquivos grandes localmente geralmente precisam de mais unidades para lidar com o trabalho. E: "aumenta a complexidade - o que é sempre ruim em TI", é apenas metade certo, em geral. Meu raciocínio está fora de tópico, então deixarei como está.
computercarguy

2
"por que a Microsoft deve permitir que você instale o Windows de maneira a criar problemas?" Como você supõe que a Microsoft sempre permita, por padrão, usar a opção melhor e otimizada?
22818 Jonathan Drapeau

25

A razão histórica para esta prática provavelmente está enraizada nas propriedades de desempenho dos HDDs magnéticos rotativos. A área em discos giratórios com a velocidade de acesso seqüencial mais alta são os setores mais externos (próximo ao início do inversor).

Se você usar a unidade inteira para o seu sistema operacional, mais cedo ou mais tarde (através de atualizações etc.), os arquivos do seu sistema operacional serão espalhados por toda a superfície do disco. Portanto, para garantir que os arquivos do sistema operacional permaneçam fisicamente na área de disco mais rápida, crie uma pequena partição do sistema no início da unidade e espalhe o restante da unidade nas partições de dados que desejar.

A busca por latência também depende em parte da distância que os cabeçotes precisam se mover, portanto, manter todos os arquivos pequenos um pouco próximos um do outro também tem uma vantagem nas unidades de rotação.

Essa prática perdeu toda a razão com o advento do armazenamento SSD.


11
Além de perder tração devido aos SSDs, os discos SATA e SASS mais novos giram muito mais rápido (7200 e + 10k rpm vs 5400 rpm) e têm tempos de busca mais rápidos do que os discos antigos. Embora ainda exista uma verdade mínima sobre o "problema de velocidade", poucas pessoas que usam o hardware atual notariam um aumento de velocidade usando uma pequena partição sem o software de benchmarking.
computercarguy

6
"a maior velocidade de acesso são os setores mais internos". , "Portanto, para garantir que os arquivos do sistema operacional permaneçam fisicamente na área de disco mais rápida, você criaria uma pequena partição do sistema no início da unidade" - Não, você a possui de trás para frente, exatamente como esta pergunta: superuser.com / questions / 643013 /… . Também a sua reivindicação de "razão histórica" é duvidosa. Até os drives ATAPI começarem a usar a gravação de bits de zona, todos os HDDs anteriores usavam gravação angular constante, portanto não havia diferença de velocidade entre os cilindros.
Serragem

3
@sawdust, o motivo histórico não foi a latência de leitura, mas a latência de busca. O FAT foi armazenado no endereço de faixa mais baixo e, portanto, a cabeça do disco teria que retornar lá pelo menos toda vez que um arquivo fosse criado ou estendido. Com os discos dos anos 80, a diferença de desempenho era mensurável. Um dos recursos de design do HPFS (ancestral do NTFS) era colocar a MFT no meio da partição para reduzir o tempo médio de busca. Obviamente, depois de colocar várias partições em um disco, você tem várias zonas FAT / MFT, de modo que a busca não é mais otimizada.
grahamj42

@ grahamj42 - Não, você ainda está errado. O tempo de busca é puramente uma função (não linear) da distância de busca, que é medida no número de cilindros. O tempo de busca não tem nenhuma relação com os cilindros interno e externo, como você afirma. Não sabe o que você quer dizer com "latência de leitura" . Para sua informação, tenho experiência em primeira mão com unidades internas de disco, controladores de disco e firmware de unidade de disco, ou seja, esse conhecimento não foi aprendido apenas com a leitura. E eu era profissionalmente ativo antes e depois dessa "história" a que você se refere estava sendo feita.
Serragem

11
@sawdust - desculpe-me por você ter me entendido mal e o tamanho de um comentário restringir o que eu poderia escrever. Em uma partição FAT, o cabeçote deve se reposicionar no FAT toda vez que for atualizado ou se o setor FAT a ser lido não estiver mais armazenado em cache, portanto, a probabilidade de encontrar o cabeçote em um cilindro externo é muito maior do que encontrá-lo no interior cilindro, o que significa que o tempo médio de busca é menor. Estou falando dos acionamentos de motores de passo do início dos anos 80 (o ST-412 tinha um tempo médio de busca de 85ms, mas 3ms para um cilindro). Uma unidade moderna é cerca de 10x mais rápida.
grahamj42

5

Existe um motivo para manter a partição / unidade primária do Windows C: pequena?

Aqui estão algumas razões para fazer isso:

  1. Todos os arquivos do sistema e o próprio sistema operacional estão na partição primária. É melhor manter esses arquivos separados de outros softwares, dados e arquivos pessoais, simplesmente porque interferir constantemente na partição inicializável e misturar seus arquivos pode ocasionalmente levar a erros, como excluir arquivos ou pastas do sistema por acidente. Organização é importante. É por isso que o tamanho da partição primária é baixo - para desencorajar os usuários de depositar todos os seus dados nela.
  2. Backups - é muito mais fácil, rápido e eficaz fazer backup e recuperar uma partição menor que a maior, dependendo da finalidade do sistema. Conforme observado por @computercarguy nos comentários, é melhor fazer backup de pastas e arquivos específicos, do que fazer backup de uma partição inteira, a menos que seja necessário.
  3. No entanto, poderia melhorar o desempenho de uma maneira quase imperceptível. Nos sistemas de arquivos NTFS , existem as chamadas tabelas mestre de arquivos em cada partição e contém metadados sobre todos os arquivos na partição:

    Descreve todos os arquivos no volume, incluindo nomes de arquivos, carimbos de data e hora, nomes de fluxos e listas de números de cluster em que residem fluxos de dados, índices, identificadores de segurança e atributos de arquivos como "somente leitura", "compactado", "criptografado" etc.

Isso pode apresentar uma vantagem, embora imperceptível, portanto, isso pode ser ignorado, pois realmente não faz diferença. A resposta do @ WooShell está mais relacionada ao problema de desempenho, mesmo que ainda seja negligenciável.

Outro aspecto a ser observado é que, no caso de ter um SSD + HDD, é muito melhor armazenar seu sistema operacional no SSD e todos os seus arquivos / dados pessoais no HDD. Você provavelmente não precisaria do aumento de desempenho de ter um SSD para a maioria dos seus arquivos pessoais e as unidades de estado sólido de nível de consumidor geralmente não têm muito espaço nelas, portanto, você prefere não tentar preenchê-lo com arquivos pessoais .

Alguém pode explicar por que essa prática é realizada e ainda é válida?

Descreveu algumas das razões pelas quais isso é feito. E sim, ainda é válido, embora não seja mais uma boa prática como parece. As desvantagens mais notáveis ​​são que os usuários finais terão que acompanhar onde os aplicativos sugerem instalar seus arquivos e alterar esse local (possível durante quase qualquer instalação de software, especialmente se a instalação especializada / avançada for uma opção), para que a partição inicializável não ocorra ' , porque o sistema operacional precisa ser atualizado às vezes, e outra desvantagem é que, ao copiar arquivos de uma partição para outra, ele realmente precisa copiá-los, enquanto que se eles estivessem na mesma partição, apenas atualiza a MFT e os metadados, não precisam gravar os arquivos inteiros novamente.

Infelizmente, alguns deles podem apresentar mais problemas:

  1. Aumenta a complexidade da estrutura, o que dificulta e consome mais tempo para gerenciar.
  2. Alguns aplicativos ainda gravam arquivos / metadados na partição do sistema (associações de arquivos, menus de contexto etc.), mesmo se instalados em outra partição, portanto, isso torna mais difícil o backup e pode causar falhas na sincronização entre as partições. (graças ao comentário de @ Bob)

Para evitar o problema que você está tendo, você precisa:

  1. Sempre tente instalar aplicativos nas outras partições (altere o local de instalação padrão).
  2. Certifique-se de instalar apenas software importante na sua partição inicializável. Outro software não tão necessário e sem importância deve ser mantido fora dele.

Também não estou dizendo que ter várias partições com uma pequena primária é a melhor idéia. Tudo depende do objetivo do sistema e, embora introduza uma maneira melhor de organizar seus arquivos, ele vem com suas desvantagens, que nos sistemas Windows nos dias atuais são mais do que profissionais.

Nota: E como você mencionou, ele mantém os dados que estão em partições separadas em segurança no caso de uma falha na partição inicializável.


11
"Portanto, uma partição menor com uma tabela mestre de arquivos menor realizará pesquisas mais rápidas e melhorará o desempenho de um disco rígido." Citação necessária - serverfault.com/questions/222110/… por exemplo indica que mesmo grandes volumes não são problema hoje em dia.
Sleske

11
"É claro que muitos desenvolvedores de software têm a má prática de sugerir que os usuários finais instalem seus aplicativos na partição primária. Mas, geralmente, não é uma boa idéia". - citation needed
gronostaj

5
"Como as tabelas mestras de arquivos armazenam informações sobre todos os arquivos em uma partição, ao executar qualquer ação em qualquer um dos arquivos dessa partição, ele examina toda a tabela." Oh, absolutamente não. Essa declaração só pode ser feita com total desconhecimento de como os sistemas de arquivos funcionam e de como a organização do armazenamento em disco é realizada em geral. Se isso fosse verdade, o desempenho de qualquer operação que envolvesse a MFT se degradaria linearmente (ou pior!) Com o tamanho da MFT, e isso simplesmente não aconteceria.
Jamie Hanrahan

11
"como o sistema operacional não executa tantas operações de leitura / gravação quanto outros softwares" . Se o seu sistema operacional for Windows, ele está executando muitas operações de R / W no disco de instalação. Muitos deles. Se você estiver usando o IE ou o Edge, ele será instalado como parte do Windows (não pense que você pode especificar onde ele está instalado, embora eu esteja errado), e isso está armazenando muitas coisas enquanto estou escrevendo este comentário.
FreeMan

2
"É melhor manter esses arquivos [SO] separados de outro software" - Não. O problema dessa abordagem é que muitos softwares mantêm o status de instalação (e desinstaladores) do SO. Muitos softwares também se registram em várias partes das associações de arquivos do SO, entradas do menu de contexto, renderizadores de visualização etc. A instalação do software em uma partição separada não os impede; apenas os faz espalhados por duas partições. O que é pior do que mantê-los juntos - agora você adicionou o risco de as duas partições ficarem fora de sincronia nos backups.
19418 Bob

4

Sou desenvolvedor de software, mas também dediquei um tempo ao trabalho de TI "regular" / administrativo. Normalmente, mantenho o SO e os aplicativos na unidade C: e meus arquivos pessoais na unidade D :. Elas não precisam necessariamente ser unidades físicas separadas, mas atualmente estou usando um SSD relativamente pequeno como minha unidade "sistema" (C :) e uma unidade de disco "tradicional" (por exemplo, com pratos magnéticos rotativos) como minha "casa" unidade (D :).

Todos os sistemas de arquivos estão sujeitos a fragmentação. Com os SSDs, isso é basicamente um problema, mas ainda é um problema nas unidades de disco tradicionais.

Eu descobri que a fragmentação pode degradar significativamente o desempenho do sistema. Por exemplo, descobri que uma compilação completa de um grande projeto de software melhorou em mais de 50% depois de desfragmentar minha unidade - e a compilação em questão levou quase uma hora, portanto, essa não foi uma diferença trivial.

Mantendo meus arquivos pessoais em um volume separado, descobri:

  • o volume do sistema não é fragmentado quase tão rapidamente (ou severamente);
  • é muito mais rápido desfragmentar os dois volumes separados do que um único volume com tudo nele - cada volume leva de 20% a 25% o tempo que o volume combinado faria.

Eu observei isso em várias gerações de PCs, com várias versões do Windows.

(Como comentou um comentarista, isso também tende a facilitar os backups.)

Devo observar que as ferramentas de desenvolvimento que utilizo tendem a gerar um grande número de arquivos temporários, o que parece contribuir significativamente para o problema de fragmentação. Portanto, a gravidade desse problema varia de acordo com o software que você usa; você pode não notar uma diferença, ou tanto quanto uma. (Mas existem outras atividades - por exemplo, composição e edição de vídeo / áudio - que exigem muita E / S e, dependendo do software usado, podem gerar um grande número de arquivos temporários / intermediários. Meu argumento é que não escreva isso como algo que afeta apenas uma classe de usuários.)

Advertência: com as versões mais recentes do Windows (a partir de 8), isso se tornou muito mais difícil, porque as pastas de usuários em um volume diferente de C: não são mais suportadas oficialmente. Posso dizer que não foi possível realizar uma atualização no local do Windows 7 para o Windows 10, mas YMMV (existem várias maneiras diferentes de [re] localizar uma pasta de usuário, não sei quais são afetadas) .

Uma observação adicional: se você mantiver dois volumes separados em uma unidade tradicional, convém configurar um arquivo de paginação no volume D :. Pelas razões descritas na resposta do WooShell, isso reduzirá o tempo de busca ao gravar no arquivo de paginação.


Para mim, é só que C: pode ser reinstalado, onde tudo em D: precisa de ser apoiado
MAWG

Com os SSDs, a fragmentação de metadados ainda é um problema, pois significa mais comandos de leitura / gravação para o mesmo trabalho. Embora o impacto ainda seja incomparavelmente menor do que nos acionamentos rotacionais.
ivan_pozdeev

4

Resposta curta: Não existe mais.

Na minha experiência (mais de 20 anos de trabalho em administração de TI), o principal motivo dessa prática (outras estão listadas abaixo) é que os usuários basicamente não confiam no Windows com seus dados e espaço no disco rígido.

O Windows tem sido notoriamente ruim em permanecer estável ao longo do tempo, limpando sozinho, mantendo a partição do sistema íntegra e fornecendo acesso conveniente aos dados do usuário. Portanto, os usuários preferiram rejeitar a hierarquia do sistema de arquivos fornecida pelo Windows e rolar a sua própria fora dela. A partição do sistema também atuou como um gueto para negar ao Windows os meios de causar estragos fora de seus limites.

  • Existem muitos produtos, incluindo os da Microsoft, que não são desinstalados de maneira limpa e / ou causam problemas de compatibilidade e estabilidade (a manifestação mais destacada são os restos de arquivos e entradas do Registro por toda parte e o DLL Hellem todas as suas encarnações). Muitos arquivos criados pelo sistema operacional não são limpos posteriormente (logs, atualizações do Windows etc.), levando o sistema a ocupar cada vez mais espaço com o passar do tempo. No Windows 95 e até no XP, os conselhos sugeriam uma reinstalação limpa do sistema operacional de vez em quando. A reinstalação do sistema operacional exigia a capacidade de garantir a limpeza do sistema operacional e de sua partição (para também limpar quaisquer dados falsos no sistema de arquivos) - impossível sem várias partições. E dividir a unidade sem perder dados só é possível com programas especializados (que podem ter suas próprias surpresas desagradáveis, como resgatar e deixar dados em um estado inutilizável ao encontrar um setor ruim). Vários programas de "limpeza" atenuaram o problema, mas, com sua lógica baseada na engenharia reversa e no comportamento observado,RegCleanO utilitário da própria Microsoft foi cancelado após o lançamento do Office 2007, que quebrou suposições sobre o registro em que se baseava). O fato de muitos programas salvarem seus dados em locais arbitrários dificultou ainda mais a separação dos dados do usuário e do sistema operacional, tornando os usuários instaladores de programas fora da hierarquia do sistema operacional.
    • A Microsoft tentou várias maneiras de aprimorar a estabilidade, com vários graus de sucesso ( DLLs compartilhadas , Windows File Protection e seu sucessor TrustedInstaller, subsistema Side-by-side , um repositório separado para módulos .NET com estrutura de armazenamento que evita conflitos de versão e de fornecedor ) As versões mais recentes do Windows Installer têm até verificação de dependência rudimentar (provavelmente o último grande gerenciador de pacotes em uso geral a incluir esse recurso).
    • No que diz respeito à conformidade de software de terceiros com as melhores práticas, eles manobravam entre manter a compatibilidade com software mal escrito, mas suficientemente usado (caso contrário, seus usuários não atualizariam para uma nova versão do Windows) - o que levaria a uma quantidade impressionante de kludges e soluções alternativas no sistema operacional, incluindo comportamento indocumentado da API, correção ao vivo de programas de terceiros para corrigir bugs neles e alguns níveis de virtualização de registro e sistema de arquivos - e entre forçar fornecedores de terceiros a cumprirem medidas como um logotipo de certificação programa e um programa de assinatura de driver (obrigatório a partir do Vista).
  • Os dados do usuário sendo ocultados por um longo caminho no perfil do usuário tornaram inconveniente procurar e especificar caminhos para ele. Os caminhos também usavam nomes longos , tinham espaços (um bane de shells de comando em todos os lugares) e caracteres nacionais (um grande problema para linguagens de programação, exceto os muito recentes que têm suporte abrangente a Unicode) e eram específicos do local () e inalcançáveis ​​sem o acesso winapi (!!) (eliminando qualquer esforço de internacionalização em scripts), o que também não ajudou em nada.
    Portanto, ter seus dados no diretório raiz de uma unidade separada era visto como uma estrutura de dados mais conveniente do que o Windows fornecia.
    • Isso foi corrigido apenas em versões muito recentes do Windows. Os próprios caminhos foram corrigidos no Vista, compactando nomes longos, eliminando espaços e nomes localizados. O problema de navegação foi corrigido no Win7, que fornecia entradas do menu Iniciar para a raiz do perfil do usuário e para a maioria dos outros diretórios nele, além de pastas persistentes "Favoritas" nas caixas de diálogo de seleção de arquivos, com padrões sensíveis Downloads, para economizar a necessidade de navegar para eles cada vez.
  • Em suma, os esforços da MS deram frutos no final. Desde o Win7, o sistema operacional, os softwares de estoque e de terceiros, incluindo os utilitários de limpeza, são estáveis ​​e bem-comportados o suficiente, e os HDDs são grandes o suficiente para que o sistema operacional não exija reinstalação durante toda a vida útil de uma estação de trabalho típica. E a hierarquia de ações é utilizável e acessível o suficiente para realmente aceitá-la e usá-la na prática diária.

Os motivos secundários são:

  • Os softwares anteriores (sistema de arquivos e suporte a particionamento em BIOS e SOs) estavam atrasados ​​em relação aos discos rígidos no suporte a grandes volumes de dados, necessitando dividir um disco rígido em partes para poder usar sua capacidade total.
    • Isso foi principalmente um problema no DOS e no Windows 95 vezes. Com o advento do FAT32 (Windows 98) e NTFS (Windows NT 3.1), o problema foi resolvido em grande parte por enquanto.
    • A barreira de 2 TB que surgiu recentemente foi corrigida pela geração recente de sistemas de arquivos ( ext4 e versões recentes do NTFS ), GPT e discos de 4k .
  • Várias tentativas para otimizar o desempenho. Os discos rígidos rotacionais são um pouco (cerca de 1,5 vezes) mais rápidos na leitura de dados de faixas externas (que mapeiam para os setores iniciais) do que as internas, sugerindo a localização de arquivos acessados ​​com frequência, como bibliotecas do SO e arquivo de páginas, perto do início do disco.
    • Como os dados do usuário também são acessados ​​com muita frequência e o reposicionamento da cabeça tem um impacto ainda maior no desempenho, fora de cargas de trabalho muito específicas, a melhoria no uso na vida real é marginal, na melhor das hipóteses.
  • Vários discos físicos. Essa é uma configuração não típica para uma estação de trabalho, uma vez que um disco rígido moderno costuma ser suficientemente grande e os laptops nem sequer têm espaço para um segundo disco rígido. A maioria, se não todas as estações que eu vi com essa configuração, são desktops que (re) usam HDDs mais antigos que ainda estão operacionais e aumentam o tamanho necessário - caso contrário, um RAID deve ser usado ou uma das unidades deve conter backups e não estar em uso regular.
    • Este é provavelmente o único caso em que se obtém um ganho real ao dividir o sistema e os dados em volumes separados: como eles estão fisicamente em hardware diferente, eles podem ser acessados ​​em paralelo (a menos que sejam duas unidades PATA no mesmo cabo) e não há desempenho bater no reposicionamento da cabeça ao alternar entre eles.
      • Para reutilizar a estrutura de diretórios do Windows, normalmente passo C:\Userspara a unidade de dados. Mover apenas um único perfil ou mesmo apenas Documents, Downloadse Desktopprovou ser inferior porque outras partes do perfil e Publictambém pode crescer incontrolavelmente (consulte a configuração "configuração e dados separados" abaixo).
    • Embora os discos possam ser consolidados em um volume estendido , eu não os uso ou recomendo porque os Volumes Dinâmicos são uma tecnologia proprietária com a qual as ferramentas de terceiros têm problemas para trabalhar e porque, se alguma das unidades falhar, todo o volume será perdido.
  • Um SSD M.2 + HDD.
    • Nesse caso, recomendo usar o SSD apenas como cache: dessa forma, você obtém o benefício de um SSD para toda a sua matriz de dados, em vez de apenas uma parte arbitrária dele, e o que é acelerado é determinado automaticamente pelo que você realmente acesso na prática.
    • De qualquer forma, essa configuração em um laptop é inferior a apenas um único SSD, porque os HDDs também são intolerantes a choques e vibrações externas, ocorrências muito reais para laptops.
  • Cenários de inicialização dupla. Geralmente, dois sistemas operacionais não podem coexistir em uma única partição. Este é o único cenário que eu conheço que garante várias partições em uma estação de trabalho. E os casos de uso para isso são extremamente raros hoje em dia, porque todas as estações de trabalho agora são poderosas o suficiente para executar VMs.
  • Nos servidores, existem vários outros cenários válidos - mas nenhum deles se aplica ao domínio do Superusuário.
    • Por exemplo, é possível separar os dados persistentes (programas e configuração) da alteração dos dados (dados e logs do aplicativo) para impedir que um aplicativo descontrolado interrompa todo o sistema. Existem também várias necessidades especiais (por exemplo, em um sistema incorporado, dados persistentes geralmente residem em uma EEPROM enquanto dados de trabalho em uma unidade de RAM). O padrão de hierarquia de sistemas de arquivos do Linux se presta muito bem a ajustes desse tipo.

3

Quase duas décadas atrás, teria sido dominada pela variedade de Windows 98 a XP, incluindo NT4 e 2000 no lado da estação de trabalho / servidor.

Todos os discos rígidos também teriam armazenamento magnético com cabo PATA ou SCSI, pois os SSDs custam mais que o computador e o SATA não existia.

Como a resposta de WooShell diz, os setores lógicos mais baixos na unidade (fora da bandeja) tendem a ser os mais rápidos. Minhas unidades Velociraptor de 1 TB WDC começam em 215 MB / s, mas caem para 125 MB / s nos setores externos, uma queda de 40%. E essa é uma unidade de prato de 2,5 "; portanto, a maioria das unidades de 3,5" geralmente apresenta uma queda no desempenho ainda maior , superior a 50% . Esse é o principal motivo para manter a partição principal pequena, mas só se aplica onde a partição é pequena em relação ao tamanho da unidade.

O outro principal motivo para manter a partição pequena foi se você estivesse usando o FAT32 como sistema de arquivos, que não suportava partições maiores que 32 GB. Se você estava usando NTFS, as partições de até 2 TB eram suportadas antes do Windows 2000 e, em seguida, de 256 TB.

Se sua partição for muito pequena em relação à quantidade de dados que seria gravada, é mais fácil fragmentar-se e mais difícil desfragmentar. Você pode simplesmente ficar sem espaço como o que aconteceu com você. Se você tiver muitos arquivos em relação aos tamanhos da partição e do cluster, o gerenciamento da tabela de arquivos poderá ser problemático e afetar o desempenho. Se você estiver usando volumes dinâmicos para redundância, manter os volumes redundantes tão pequenos quanto necessário economizará espaço nos outros discos.

Hoje as coisas são diferentes, o armazenamento do cliente é dominado por SSDs flash ou unidades magnéticas aceleradas por flash. O armazenamento é geralmente abundante e é fácil adicionar mais a uma estação de trabalho, enquanto nos dias PATA, você pode ter apenas uma única conexão de unidade não utilizada para dispositivos de armazenamento adicionais.

Então, isso ainda é uma boa ideia ou tem algum benefício? Isso depende dos dados que você mantém e como os gerencia. Minha estação de trabalho C: tem apenas 80 GB, mas o próprio computador possui mais de 12 TB de armazenamento, distribuídos por várias unidades. Cada partição contém apenas um determinado tipo de dados, e o tamanho do cluster é correspondido ao tipo de dados e ao tamanho da partição, o que mantém a fragmentação próxima de 0 e evita que o MFT seja excessivamente grande.

O tamanho reduzido é que há espaço não utilizado, mas o desempenho aumenta mais do que compensa e, se eu quiser mais armazenamento, adiciono mais unidades. C: contém o sistema operacional e aplicativos usados ​​com freqüência. P: contém aplicativos menos utilizados e é um SSD de 128 GB com uma classificação de durabilidade de gravação menor que C :. T: está em um SSD SLC menor e contém arquivos temporários do usuário e do sistema operacional, incluindo o cache do navegador. Os arquivos de vídeo e áudio são armazenados magneticamente, assim como as imagens de máquinas virtuais, backups e dados arquivados, geralmente possuem tamanhos de cluster de 16 KB ou maiores e as leituras / gravações são dominadas pelo acesso seqüencial. Executo a desfragmentação apenas uma vez por ano em partições com alto volume de gravação e leva cerca de 10 minutos para fazer todo o sistema.

Meu laptop possui apenas um único SSD de 128 GB e um caso de uso diferente, portanto não posso fazer a mesma coisa, mas ainda assim me separo em 3 partições, C: (SO e programas de 80 GB), T: (temperatura de 8 GB) e F: ( Arquivos de usuário de 24 GB), que faz um bom trabalho no controle da fragmentação sem desperdiçar espaço, e o laptop será substituído muito antes de eu ficar sem espaço. Também facilita o backup, pois F: contém os únicos dados importantes que são alterados regularmente.


No entanto, minha pergunta diz que nosso especialista em TI "ainda" faz isso porque estou enfrentando o mesmo problema no momento.
19718

Observe que, desde o Vista, o Windows mantém automaticamente os arquivos do sistema freqüentemente acessados ​​nos setores externos (se possível) de qualquer maneira. Essa é uma das principais razões pelas quais as velocidades de inicialização aumentaram tanto - toda a sequência de inicialização, incluindo aplicativos de inicialização, geralmente lê sequencialmente a partir da unidade no local em que é a mais rápida. A menos que você estrague as partições, é claro: os SSDs P ainda ajudam imensamente - mesmo apenas pelo maior rendimento.
Luaan 19/07/19

2
@hk_ só porque seu especialista em TI ainda está fazendo coisas por hábito não significa que as verdades fundamentais desse hábito de 20 ou 15 (ou até 5) anos atrás ainda sejam verdadeiras hoje. Se você fosse britânico e continuasse a dirigir no lado esquerdo da estrada por hábito quando atravessou a Europa continental, estaria em um mundo de mágoa. ou seja, "porque eu sempre fiz dessa maneira" não é um bom motivo para continuar fazendo algo.
21818 FreeMan

@FreeMan Não estou apoiando. Eu tinha dúvidas, portanto, a minha pergunta.
H19_

3

Eu costumava fazer algum trabalho de TI, e aqui está o que eu sei e lembro.

No passado, como outros disseram, havia um benefício real em ter uma pequena partição C no início do disco. Ainda hoje em alguns laptops de ponta, isso ainda pode ser verdade. Essencialmente, por ter uma partição menor, você tem menos fragmentação e, mantendo-a no início do disco, é melhor procurar e, portanto, ler os tempos. Isso ainda é válido hoje em dia com laptops (geralmente) e discos rígidos "verdes" mais lentos.

Outro grande benefício que ainda uso hoje é ter "dados" e "os" em unidades separadas, ou se não conseguir gerenciar essas partições separadas. Não há aumento real da velocidade se você estiver usando SSD ou unidades magnéticas ainda mais rápidas, mas há uma enorme opção de "correção fácil" quando o sistema operacional finalmente se acidentar. Apenas troque a unidade ou altere novamente a partição. Os dados do usuário estão intactos. Quando configurado corretamente, entre uma unidade D: e "Perfis móveis", a reinstalação do Windows é um problema de 5 minutos. É um bom passo para um técnico de nível 1.


Não tenho certeza de que "um bom passo para um técnico de nível 1" seja reinstalar o Windows, independentemente da velocidade . Eu acho que reinstalar o sistema operacional quase sempre deve ser uma opção de último recurso. Tantas pequenas coisas estranhas podem quebrar se você remover a instalação do SO em todos os aplicativos instalados e substituí-la por outra (embora muito semelhante). Por exemplo, o que acontece com as entradas de registro específicas do aplicativo que não estão no HKCU?
Aaron M. Eshbach

11
Eles também são apagados, o que significa que você também pode descartar problemas de configuração.
coteyr

2

Aqui está uma razão, mas não acredito que seja uma razão válida para os computadores (modernos) de hoje.

Isso remonta ao Windows 95/98 e XT. Provavelmente não se aplica ao Vista e mais tarde, mas era uma limitação de hardware, portanto, a execução de um sistema operacional mais recente em hardware antigo ainda teria que lidar com a limitação.

Acredito que a limitação era de 2 GB, mas poderia ter havido uma limitação de 1 GB (ou talvez outras) em um período anterior.

O problema era (algo como) o seguinte: a partição BOOT tinha que estar dentro dos primeiros 2 GB (talvez 1 GB antes) do espaço físico na unidade. Pode ter sido que 1) o INÍCIO da partição BOOT estivesse dentro dos limites do limite ou 2) a partição INTEIRA de inicialização estivesse dentro dos limites do limite. É possível que, em vários momentos, cada um desses casos tenha sido aplicado, mas se o # 2 se aplicou, provavelmente teve vida curta, então eu assumirei que é o # 1.

Portanto, com o número 1, o INÍCIO da partição BOOT deve estar dentro dos primeiros 2 GB de espaço físico. Isso não impediria a criação de 1 grande partição para o Boot / OS. Mas, o problema era dual / multi boot. Se alguma vez parecesse possível querer inicializar dual / multi a unidade, era necessário haver espaço disponível abaixo da marca de 2 GB para criar outras partições inicializáveis ​​na unidade. Como talvez não seja conhecido no momento da instalação se a unidade precisará de outra partição de inicialização, por exemplo, Linix, ou alguma partição de depuração / solução de problemas / recuperação inicializável, era frequentemente recomendável (e muitas vezes sem saber o porquê) instalar em uma "pequena "Partição de inicialização do SO.


2

Gostaria de saber se o seu departamento de TI de décadas atrás estava preocupado com o backup. Como C: é uma partição de inicialização / sistema operacional, seria comum usar algum tipo de backup de imagem, mas para uma partição de dados / programa, um backup incremental de arquivo + pasta pode ser usado. Reduzir o espaço usado na partição C: reduziria o tempo e o espaço necessários para fazer backup de um sistema.


Um comentário sobre meu uso pessoal da partição C: Eu tenho um sistema de inicialização múltipla, incluindo o Win 7 e o Win 10, e não tenho nenhum sistema operacional na partição C: apenas os arquivos de inicialização. Eu uso o backup de imagem do sistema Windows para o Win 7 e o Win 10, e o backup da imagem do sistema Windows sempre inclui a partição C: (inicialização), além da partição Win 7 ou Win 10, portanto, esse é outro cenário em que reduz a quantidade de dados e programas na partição C: reduzem o tempo e o espaço necessários para um backup de imagem do sistema (ou restaure, se necessário).


Estou deixando esta seção na minha resposta por causa dos comentários abaixo.

Como meu sistema é de inicialização múltipla, a reinicialização em um sistema operacional diferente simplifica o backup de partições de dados / programas, pois não há atividade nas partições enquanto elas estão sendo copiadas. Eu escrevi um programa de backup simples que faz uma cópia da pasta + do arquivo junto com as informações de segurança e nova análise, mas não funciona muito bem para as partições do Windows 7 ou Windows 10, por isso estou usando o backup de imagem do sistema para C ;, Win 7 e Ganhe 10 partições de SO.


3
...o que? Não faltam ferramentas e métodos para fazer backup da partição do sistema. Além disso, seu sistema de backup doméstico provavelmente falhará em algo complexo, porque não lida com os casos comuns de arquivos vinculados por hardware (o SxS depende muito disso), pontos de junção (novamente, o SO principal depende disso), parcialmente- arquivos escritos (VSS lida com isso), arquivos bloqueados (novamente, VSS), etc ..
Bob

Eu provavelmente posso citar meia dúzia de pacotes de software diferentes - veem, macrium, acronis, symentec ghost ... que fazem isso. A maioria deles também usa mecanismos embutidos em segundo plano.
Journeyman Geek

Eu corro veeam, com backup em uma unidade externa, mas corro diariamente. Há mais algumas partes móveis para backups de backup, mas você certamente não precisa desfragmentar manualmente ou fazer backup offline.
Journeyman Geek

Quanto aos backups online de partição completa, quase tudo usa o VSS para obter um instantâneo point-in-time (caso contrário, você enfrenta problemas ao fazer backup, digamos, de um arquivo de banco de dados parcialmente gravado e depois faz backup do diário do banco de dados após o o arquivo terminou de ler). Disk2vhd é o exemplo mais trivial; mais suites com todas as funcionalidades, como a Acronis, processam adicionalmente imagens diferenciais / incrementais.
19418 Bob

@Bob - Eu apenas executo meu programa após a reinicialização em um sistema operacional diferente, de modo que qualquer partição que está sendo copiada não esteja ativa, evitando o problema pontual de tentar fazer backup de uma partição ativa. É semelhante à inicialização a partir de um CD-ROM para executar um utilitário de imagem de disco para "clonar" um disco rígido (o que fiz há algum tempo quando substituí todos os meus discos rígidos).
Rcgldr 19/07/19

2

Não, não com o Windows e seus principais pacotes de software insistindo em vínculos com o System: apesar de instalá-los nos Programas :. (É uma necessidade institucionalizada da maneira como a maioria dos sistemas operacionais é criada.) R: Volume: faz sentido, mas uma unidade removível separada para seus dados (ou NAS, ou backups seletivos ou incrementais para uma unidade removível) faz ainda mais sentido.

O particionamento para sistemas com vários sistemas operacionais também faz sentido, mas cada partição força você a selecionar um limite superior de armazenamento rígido. Geralmente é melhor com unidades separadas, mesmo neste caso.

E hoje, as máquinas virtuais e as unidades em nuvem complementam muitas dessas opções.


2

Há um motivo específico - usando instantâneos de volume.

Um instantâneo de volume é um backup de toda a partição. Quando você restaura esse tipo de backup, reescreve toda a partição, recuperando efetivamente o sistema para o estado anterior.

Um administrador do sistema pode criar esses instantâneos regularmente, em preparação para qualquer tipo de falha de software. Eles podem até armazená-los em outra partição da mesma unidade. É por isso que você deseja que a partição do sistema seja relativamente pequena.

Ao usar esse esquema, os usuários são incentivados a armazenar seus dados na unidade de rede. Em caso de problemas de software, o administrador do sistema pode reverter o sistema para o estado de funcionamento. Isso seria extremamente econômico em comparação com a investigação manual dos motivos do problema e sua correção.


0

Venho programando há quase meio século. Outra resposta diz histórico e outra resposta longa diz Vários discos físicos .

Quero enfatizar que vários discos físicos são provavelmente o que iniciou a recomendação. Mais de meio século atrás, quando não existiam partições, era extremamente comum usar uma unidade física separada para o sistema. A principal razão para isso é o movimento físico das cabeças e o giro das unidades. Essas vantagens não existem para partições quando a unidade física é usada frequentemente para outras coisas.

Observe também que o Unix separa o sistema e os dados em partições separadas. Há muitas boas razões para fazer isso, conforme explicado em muitas outras respostas, mas para o desempenho, unidades físicas separadas são a principal justificativa.


-1

O motivo pelo qual costumávamos fazer duas partições era devido a vírus. Alguns vírus usados ​​para substituir o setor de inicialização e o início do disco.

Os backups nos computadores dos usuários costumavam se resumir a uma cópia de todo o programa em um disquete. (Na verdade, um não backup)

Portanto, quando um vírus "comeu" o início do disco, geralmente apenas o sistema tinha que ser reinstalado.

E se não houvesse backups, a recuperação dos dados seria mais fácil se a segunda partição estivesse intacta.

Portanto, se você tiver backups, esse motivo não é válido.

Ao utilizar nosso site, você reconhece que leu e compreendeu nossa Política de Cookies e nossa Política de Privacidade.
Licensed under cc by-sa 3.0 with attribution required.