Eu tenho uma tabela atualizada com muita frequência com 240 milhões de linhas (e em crescimento). A cada três horas, 1,5 milhão de linhas são inseridas e 1,5 milhão são excluídas. Quando mudei o cluster para um SSD, esse tempo de inserção em massa (usando cópia) foi reduzido de 22 para 2,3 minutos. O tempo de exclusão também foi aprimorado. Pretendo fazer essa atualização em massa a cada duas horas ou a cada hora.
Embora o desempenho agora (após o SSD) seja compatível com uma atualização mais frequente, li algumas histórias de horror sobre a morte do SSD devido à resistência limitada à NAND combinada à amplificação de gravação. Como os SSDs são caros, eu gostaria de levar a morte o mais longe possível no futuro. Daí a minha pergunta: O que realmente acontece com o arquivo de disco em um vácuo de exclusão e subsequente? Eu acho que existem duas gravações de disco, uma para marcar a linha como excluída e a outra ao aspirar para marcá-la como disponível para substituição. Se, em vez de excluir e aspirar, particionasse a tabela criando e descartando tabelas em cada inserção / exclusão em massa, eu estaria minimizando o desgaste do SSD?