É porque é mais fácil e barato aumentar a largura de banda da DRAM do que diminuir a latência. Para obter os dados de uma linha aberta de ram, é necessária uma quantidade não trivial de trabalho.
O endereço da coluna precisa ser decodificado, os muxes que selecionam quais linhas acessar precisam ser direcionados e os dados precisam passar pelo chip para os buffers de saída. Isso leva um pouco de tempo, especialmente considerando que os chips SDRAM são fabricados em um processo personalizado para altas densidades de ram e não altas velocidades lógicas. Para aumentar a largura de banda, usando DDR (1,2,3 ou 4), a maior parte da lógica pode ser ampliada ou em pipeline, e pode operar na mesma velocidade da geração anterior. A única coisa que precisa ser mais rápida é o driver de E / S para os pinos DDR.
Por outro lado, para diminuir a latência, toda a operação precisa ser acelerada, o que é muito mais difícil. Provavelmente, partes do carneiro precisariam ser feitas em um processo semelhante ao das CPUs de alta velocidade, aumentando o custo substancialmente (o processo de alta velocidade é mais caro, mais cada chip precisa passar por 2 processos diferentes).
Se você comparar caches de CPU com RAM e disco rígido / SSD, há uma relação inversa entre armazenamento grande e armazenamento rápido. Um L1 $ é muito rápido, mas pode conter apenas entre 32 e 256kB de dados. A razão de ser tão rápido é porque é pequeno:
- Ele pode ser colocado muito próximo à CPU, o que significa que os dados precisam percorrer uma distância menor para chegar a ele
- Os fios podem ser mais curtos, novamente significando que leva menos tempo para os dados viajarem através dele
- Ele não ocupa muita área ou muitos transistores, portanto, torná-lo em um processo de velocidade otimizada e usar muita energia por bit armazenado não é tão caro
À medida que você sobe na hierarquia, cada opção de armazenamento fica maior em capacidade, mas também em área e mais distante do dispositivo que o utiliza, o que significa que o dispositivo deve ficar mais lento.