Não sei se existe um nome, mas isso parece ser algo que você faria para economizar memória.
Primeiro, um bloco básico tem uma resolução muito baixa - apenas alguns pixels de largura. Porém, quando renderizados, são ampliados em 2x, 3x, 4x, etc. e são muito mais "blocos" na tela.
Em seguida, os jogos mais antigos terão um bloco de memória dedicado à exibição na tela - o que há nessa memória é o que é mostrado na tela. Lembre-se de que a memória é MUITO apertada em plataformas mais antigas, portanto, como desenvolvedor, você deseja economizar tudo o que puder.
Portanto, em vez de colocar seus blocos em um espaço de memória separado, basta torná-los parte da memória da tela, economizando um pouco. E o artefato disso, é claro, é que eles aparecem na tela.
Da perspectiva do acesso à memória, o código não se importa se a memória que está sendo acessada está sendo usada para memória de tela ou armazenamento variável. Basicamente, o gerenciamento de memória em jogos mais antigos era muito simples e havia apenas um bloco de memória disponível. Não havia GPU; portanto, não havia idéia de processadores e memória separados para programação versus exibição na tela.
Para dar uma idéia de como a memória pode estar programando jogos anteriores, aqui está uma citação de um artigo de 1983 sobre a programação dos computadores Atari e VIC: "A tela de alta resolução da Atari (e os modos GTIA de 16 cores) usa quase 8K de RAM." Isso parece muito pouco, mas lembre-se de que o computador talvez tenha apenas 48K de memória, muitos dos quais foram ocupados por outras coisas além do jogo.