Estou curioso para saber quais são as melhores práticas na indústria de desenvolvimento de jogos para renderizar o universo 3D?
Para ser mais específico:
- Os pontos de dados são dados e estáticos. Cada ponto tem posição, cor e tamanho;
- O conjunto de dados inteiro é muito maior que a memória disponível;
- O usuário deve conseguir "diminuir o zoom" para ver uma imagem maior de uma só vez;
A abordagem mais ingênua seria dividir o universo em cubos e renderizar apenas o que é visível. Não sei como nesse cenário devo implementar o "diminuir o zoom". Devo pré-calcular cubos para cada nível de zoom possível? Ou talvez haja abordagens melhores?
Estou procurando uma solução independente de tecnologia.
infinite universe
redução / ampliação de um zoom pode ser semelhante ao rastreamento de relações entre dois pontos em alguma curva de Mandelbrot após o zoom em níveis diferentes. Em algum nível, você pode perder a precisão e não conseguir diferenciá-los ou até localizá-los novamente.