No começo havia luz
A iluminação OpenGL, para ser específica, que especificou certas operações matemáticas a serem aplicadas a um fragmento, que foram combinadas com texturas para obter uma cor final.
E então houve Quake
O Quake não usou esse tipo de iluminação para muitos de seus objetos. Em vez disso, usou uma segunda textura para representar a iluminação, que foi multiplicada (ou "modulada com) a textura do objeto para obter uma cor final.
No entanto, o hardware da época não suportava isso em uma única operação. Então Quake precisava desenhar seus objetos de cena duas vezes:
- Desenhe tudo uma vez para definir as texturas de base.
- Defina um modo de mesclagem modular.
- Desenhe tudo uma segunda vez para aplicar as texturas de iluminação.
Claro que isso foi lento; não só toda a geometria precisou ser transformada e cortada duas vezes (o que naquela época era uma operação da CPU), mas todos os pixels na tela acabaram sendo tocados duas vezes durante a renderização.
Digite multitexture
O Multitexture foi a solução para isso e foi originalmente exposto através da extensão GL_SGIS_multitexture, que existia apenas em alguns cartões 3DFX de consumo. Originalmente, ele só permitia misturar duas texturas (e com um conjunto limitado de modos de mesclagem).
Para citar o leia - me original do GLQuake :
GL_SGIS_multitexture O
suporte a multitexturas permite que determinado hardware renderize o mundo em uma passagem em vez de duas. O GLQuake usa duas passagens, uma para as texturas mundiais e a segunda para os mapas de luz que são misturados nas texturas. Em alguns hardwares, com uma implementação OpenGL suportada por GL_SIGS_multitexture, isso pode ser feito de uma só vez. No hardware que suporta isso, você obterá um aumento de 60% a 100% na taxa de quadros. Atualmente, apenas os cartões TMF duplos 3DFX (como o Obsidian 2220) suportam essa extensão, mas outros hardwares seguirão em breve.
É importante lembrar que, atualmente, efeitos como mapeamento normal, qualquer outro tipo de iluminação por pixel, até sombreadores etc. não existiam (bem, existiam , mas principalmente apenas em trabalhos acadêmicos e projetos de pesquisa e não foram considerados viáveis para uso na renderização em tempo real).
E assim até o presente
A partir daqui, é praticamente como descrito nas outras respostas. A multi-extensão se tornou um recurso padrão ao longo do tempo, com mais modos de mesclagem disponíveis, eventualmente dando lugar a um código de sombreador arbitrário.
Mas o que é importante para os propósitos da sua pergunta é o seguinte: no início, a funcionalidade padrão era capaz de usar uma textura por vez ao renderizar. Ser capaz de usar mais de um era funcionalidade adicional suportada apenas por hardware de última geração e, portanto, precisava de um nome. Esse nome poderia ter sido "texturização dupla" (como as primeiras implementações suportaram apenas duas texturas), mas com um olho no futuro, o nome "multitextura" foi escolhido.
Leituras adicionais sobre a história de tudo isso estão disponíveis aqui , e uma boa redação histórica (do contexto mais amplo e do papel que a multi-estrutura desempenha) nesta resposta do programador .