Em algum momento, isso entra na questão do que conta como "RAM". Existem muitas CPUs e microcontroladores que possuem bastante memória no chip para executar pequenos sistemas operacionais sem chips de RAM separados. De fato, isso é relativamente comum no mundo dos sistemas embarcados. Portanto, se você está apenas se referindo a não ter nenhum chip de RAM separado conectado, sim, pode fazê-lo com muitos chips atuais, especialmente aqueles projetados para o mundo incorporado. Eu já fiz isso no trabalho. No entanto, como a única diferença real entre a memória endereçável no chip e os chips de RAM separados é apenas o local (e, obviamente, a latência), é perfeitamente razoável considerar a memória no chip como RAM. Se você está contando isso como RAM, o número atual,
Se você está se referindo a um PC normal, não, não é possível executá-lo sem os drives de RAM separados, mas isso ocorre apenas porque o BIOS foi projetado para não inicializar sem a RAM instalada (que, por sua vez, é tudo os sistemas operacionais de PC modernos exigem que a RAM seja executada, especialmente porque as máquinas x86 normalmente não permitem que você endereça diretamente a memória no chip; é usada apenas como cache.)
Por fim, como Zeiss disse, não há razão teórica para que você não possa projetar um computador para rodar sem nenhuma RAM, além de alguns registros. A RAM existe apenas porque é mais barata que a memória do chip e muito mais rápida que os discos. Os computadores modernos têm uma hierarquia de memórias que varia de grande, mas lenta a muito rápida, mas pequena. A hierarquia normal é algo como isto:
- Registradores - Muito rápido (pode ser operado diretamente pelas instruções da CPU, geralmente sem latência adicional), mas geralmente muito pequeno (os núcleos do processador x86 de 64 bits têm apenas 16 registradores de uso geral, por exemplo, cada um com capacidade de armazenar um número único de 64 bits.) Geralmente, os tamanhos dos registros são pequenos porque os registros são muito caros por byte.
- Cache de CPU - Ainda muito rápido (com latência de 1 a 2 ciclos) e significativamente maior que os registros, mas ainda muito menor (e muito mais rápido) que a DRAM normal. O cache da CPU também é muito mais caro por byte do que a DRAM, e é por isso que geralmente é muito menor. Além disso, muitas CPUs têm hierarquias mesmo dentro do cache. Eles geralmente têm caches menores e mais rápidos (L1 e L2), além de caches maiores e mais lentos (L3.)
- DRAM (o que a maioria das pessoas pensa como 'RAM') - Muito mais lento que o cache (a latência de acesso tende a ser dezenas a centenas de ciclos de clock), mas muito mais barato por byte e, portanto, geralmente muito maior que o cache. A DRAM ainda é, no entanto, muitas vezes mais rápida que o acesso ao disco (geralmente centenas a milhares de vezes mais rápido).
- Discos - estes são, mais uma vez, muito mais lentos que a DRAM, mas também geralmente muito mais baratos por byte e, portanto, muito maiores. Além disso, os discos geralmente não são voláteis, o que significa que eles permitem que os dados sejam salvos mesmo após o término de um processo (assim como após a reinicialização do computador).
Observe que todo o motivo das hierarquias de memória é simplesmente econômico. Não há razão teórica (pelo menos na ciência da computação) para não termos um terabyte de registros não voláteis em um dado de CPU. A questão é que seria incrivelmente difícil e caro construir. Ter hierarquias que variam de pequenas quantidades de memória muito cara a grandes quantidades de memória barata nos permite manter velocidades rápidas com custos razoáveis.