Principalmente, eu imagino que isso se deve aos shaders. Por exemplo, o mecanismo Unreal terá um certo método de manipulação de HDR, um determinado método de manipulação de mapeamento de relevo, um determinado método de manipulação de dispersão de luz, etc.
Eles também terão um nível uniforme de clareza em termos de restrições, como tamanhos de textura e suporte de cores.
Além disso, os algoritmos serão semelhantes. Os objetos serão agrupados usando os mesmos algoritmos. A IA tomará decisões de acordo com as mesmas arquiteturas de tomada de decisão.
Se o mapeamento de impacto estiver causando especulações insanas e reagir fortemente a mudanças na iluminação, por exemplo, você começará imediatamente a pensar no mecanismo do Doom 3. Isso ocorre porque esse código shader é compartilhado entre todos os jogos usando o mecanismo. Você não gostaria de arrancar algo assim.
"Todos os mecanismos de jogo usam a mesma tecnologia de renderização 3D que todos nós usamos"
A tecnologia é a mesma, mas as regras que governam a aparência do mundo (por exemplo, iluminação, mosaico, LOD etc.) são todas escritas pelo desenvolvedor. A tecnologia de renderização 3D não tem muito a ver com a qualidade visual das coisas na tela. Até as regras para a aplicação de iluminação ambiente plana ficam a cargo do desenvolvedor (supondo que você não esteja usando pipelines de função fixa).
Você pode fazer com que o seu aplicativo OpenGL seja parecido com o seu aplicativo DirectX, com dificuldades comuns. A tecnologia de renderização subjacente realmente não tem tanto impacto, exceto no que diz respeito à velocidade.