Como sites como o Facebook e o Twitter otimizam seus sites para tráfego massivo. Além de gastar muito dinheiro em obter os melhores servidores, o que pode ser otimizado em seu código para acomodar tráfego maciço?
Eu li sobre o cache de suas páginas para HTML estático, mas isso é impraticável para sites de redes sociais nas quais as páginas são constantemente atualizadas.
Se você obtiver em média 10000 acessos por segundo, mesmo um cache de 1 segundo economizará o processamento de scripts 9999.
Você também pode estar interessado nisso (não consigo encontrar a postagem original dos proprietários de SO): highscalability.com/blog/2009/8/5/…