Complementando a resposta de Evgeny com mais alguns exemplos.
O que você quer dizer com tamanho da compilação pode importar um pouco:
se for o tamanho do (s) artefato (s) que está sendo construído (cada um individualmente ou seu tamanho combinado) - isso pode ter importância nas operações de armazenamento ou uso / implementação de artefato, se essas operações tiverem limites de tamanho e forem excedidas. Por exemplo, os aplicativos do Google App Engine têm esses limites de implantação ; se as implantações alcançadas falharem, consulte Erro ao implantar no Google App Engine .
se for o tamanho da área de trabalho na qual você executa a construção, pode ser importante da perspectiva de gerenciamento da área de trabalho. Mesmo o 2G pode ser significativo - por exemplo, se você estiver montando em um sistema de arquivos RAM em uma máquina sem muita memória RAM. Mas algumas compilações podiam ser muito maiores - eu tive que lidar com áreas de trabalho de 500G + (quando a maioria dos discos do meu servidor estava abaixo de 1T).
Se a compilação fizer parte do seu pipeline de CI / CD, quanto maior o tamanho da compilação, maior será o tempo de execução do pipeline (executando a compilação real e, se aplicável, arquivando, implantando para teste, analisando em caso de falha, limpando, etc.) - quanto mais lento / arriscado / mais caro for o seu desenvolvimento geral.
Se você atingir um limite, precisará ser criativo para contorná-lo (nem sempre é simples / possível). Se for apenas um impacto no desempenho / custo, você também terá a opção de aceitar e viver com ele e / ou abordá-lo parcialmente / gradualmente.
Talvez valha a pena distinguir entre:
- construções inchadas - quando o tamanho é desnecessariamente aumentado - geralmente é possível corrigir o problema descartando peças desnecessárias
- nos casos em que o conteúdo da compilação em si é o que realmente é necessário - o tamanho não importa tanto - é necessário, a única maneira de abordar pode ser sacrificando algumas funcionalidades