Se você está falando sobre latência, sim, isso parece certo para mim. Um limite inferior na distância implica um limite inferior na latência, devido a considerações de velocidade da luz. No entanto, na prática, essas considerações sobre velocidade da luz provavelmente não dominam até que a quantidade de memória seja extremamente grande.
A propósito, a situação é diferente se estamos falando de largura de banda (ou seja, o número de operações de memória de acesso aleatório executadas por segundo), em vez de latência. Pode-se processar muitas operações de memória de acesso aleatório simultaneamente, usando redes de classificação.
Uma ressalva importante é que você parece estar assumindo uma arquitetura em que temos uma grande CPU à esquerda e uma grande memória à direita, e elas são separadas de alguma forma. No entanto, essa não é necessariamente a única maneira de estruturar uma computação. Também é possível estruturar uma computação, por exemplo, como uma computação paralela, na qual você tem uma malha 2D ou 3D de pequenos processadores, cada um com sua própria memória de trabalho local. Agora, o acesso à memória local pode ser muito rápido, enquanto o acesso à memória remota é lento. Em certo sentido, ainda existe umn--√ ou n--√3 ligado operacional, mas o n é muito menor para a memória local do que para a memória remota, portanto, se o seu algoritmo for projetado de maneira a garantir que a maioria das operações de memória seja para a memória local, você poderá "vencer" o limite inferior que você descreveu (em alguns sentido).
Na arquitetura de computadores, geralmente se mede o desempenho de um circuito pelo A T medida: em outras palavras, a área do circuito (UMA) multiplicado pelo tempo que leva para o circuito concluir um cálculo (T) Se desejar, você pode pensar nisso como uma relação preço / desempenho: é o preço (que é considerado proporcional à área do circuito) dividido pelo desempenho (o número de cálculos que podem ser executados por segundo, ou seja, o inverso deT) Uma arquitetura padrão com uma única CPU robusta e uma grande memória nem sempre é a arquitetura ideal. Às vezes, você pode obter grandes acelerações (mais que um fator constante) usando computação paralela ou outras arquiteturas. Isso se deve, pelo menos em parte, exatamente ao problema mencionado: é muito mais rápido acessar a memória que está perto de você do que acessar a memória que está longe. O armazenamento em cache (por exemplo, cache L1, cache L2 etc.) também é baseado no mesmo princípio.
Abaixo está um exemplo de artigo no mundo da criptografia que considera o design de circuitos para fins especiais para tarefas criptoanalíticas e leva esses problemas em consideração. Por exemplo, ele possui vários processadores, uma grande memória e uma rede de classificação entre os dois para rotear os acessos de memória dos processadores para a memória. Isso permite que um alto número de operações de memória esteja "em vôo" de uma vez, mesmo que não elimine a latência.
Se você deseja aprofundar-se nessa linha de pensamento, existe um debate interessante (mas principalmente teórico) sobre se a métrica certa é área ou volume, ou seja, se o limite inferior direito é n--√ ou n--√3. Sim, o mundo é tridimensional, mas a dissipação de calor é bidimensional; um enorme cubo de computadores seria limitado por sua capacidade de dissipar o calor, que escala com sua área de superfície, não com seu volume. Pode-se continuar em frente nesse sentido. Se isso soa como um tópico fascinante, consulte Q.9 (pp.45-46) do seguinte artigo: