Temos um banco de dados de conteúdo com 300 GB de tamanho. Não há problemas com os backups depois de mudar para o Lite Speed. Antes da troca, veríamos uma grave degradação do desempenho nos sites.
Para o registro, NÃO queremos ter um banco de dados de conteúdo tão grande. Tínhamos requisitos comerciais específicos em relação ao compartilhamento de conteúdo que seriam muito difíceis de implementar se tivéssemos colocado o conteúdo em conjuntos de sites separados.
Quando fomos ao ar, tivemos grandes problemas de bloqueio com o banco de dados durante o pico de uso. Rastreamos isso de volta ao uso do objeto CrossListQueryCache no SharePoint. Mudamos de usar essa API e ela corrigiu muito do nosso desempenho.
Escrevi um pequeno artigo de blog com mais informações aqui .
Ainda vemos problemas de bloqueio com certos tipos de atualizações (exclusão de blobs> 20 MB), renomeando Webs (isso pode causar atualizações em muitos registros na tabela AllUserData. Estamos trabalhando com o suporte da Microsoft em casos específicos (por exemplo, removendo itens grandes da lixeira) Eles foram rastreados até a maneira como procedimentos armazenados específicos no SharePoint estão excluindo dados, mas ainda não temos uma solução.
Pessoalmente, acho que os problemas ocorrem depois que você obtém tantos registros na tabela AllUserData e a maneira mais fácil de a Microsoft comunicar isso às pessoas era ficar abaixo de 100 GB.
Sugiro fazer ping nas pessoas da MS IT ... Ouvi dizer que elas têm um DB de conteúdo do SharePoint> 800 GB.