Fundo:
Ao otimizar algum código Pascal com linguagem assembly incorporada, notei uma MOV
instrução desnecessária e a removi.
Para minha surpresa, remover as instruções desnecessárias fez com que meu programa desacelerasse .
Descobri que adicionar MOV
instruções arbitrárias e inúteis aumentava ainda mais o desempenho .
O efeito é irregular e as alterações são baseadas na ordem de execução: as mesmas instruções indesejadas transpostas para cima ou para baixo por uma única linha produzem uma desaceleração .
Entendo que a CPU faz todos os tipos de otimizações e racionalizações, mas isso parece mais magia negra.
Os dados:
Uma versão do meu código compila condicionalmente três operações indesejadas no meio de um loop que executa 2**20==1048576
vezes. (O programa circundante apenas calcula os hashes SHA-256 ).
Os resultados na minha máquina bastante antiga (CPU Intel (R) Core (TM) 2) 6400 a 2,13 GHz):
avg time (ms) with -dJUNKOPS: 1822.84 ms
avg time (ms) without: 1836.44 ms
Os programas foram executados 25 vezes em um loop, com a ordem de execução mudando aleatoriamente a cada vez.
Excerto:
{$asmmode intel}
procedure example_junkop_in_sha256;
var s1, t2 : uint32;
begin
// Here are parts of the SHA-256 algorithm, in Pascal:
// s0 {r10d} := ror(a, 2) xor ror(a, 13) xor ror(a, 22)
// s1 {r11d} := ror(e, 6) xor ror(e, 11) xor ror(e, 25)
// Here is how I translated them (side by side to show symmetry):
asm
MOV r8d, a ; MOV r9d, e
ROR r8d, 2 ; ROR r9d, 6
MOV r10d, r8d ; MOV r11d, r9d
ROR r8d, 11 {13 total} ; ROR r9d, 5 {11 total}
XOR r10d, r8d ; XOR r11d, r9d
ROR r8d, 9 {22 total} ; ROR r9d, 14 {25 total}
XOR r10d, r8d ; XOR r11d, r9d
// Here is the extraneous operation that I removed, causing a speedup
// s1 is the uint32 variable declared at the start of the Pascal code.
//
// I had cleaned up the code, so I no longer needed this variable, and
// could just leave the value sitting in the r11d register until I needed
// it again later.
//
// Since copying to RAM seemed like a waste, I removed the instruction,
// only to discover that the code ran slower without it.
{$IFDEF JUNKOPS}
MOV s1, r11d
{$ENDIF}
// The next part of the code just moves on to another part of SHA-256,
// maj { r12d } := (a and b) xor (a and c) xor (b and c)
mov r8d, a
mov r9d, b
mov r13d, r9d // Set aside a copy of b
and r9d, r8d
mov r12d, c
and r8d, r12d { a and c }
xor r9d, r8d
and r12d, r13d { c and b }
xor r12d, r9d
// Copying the calculated value to the same s1 variable is another speedup.
// As far as I can tell, it doesn't actually matter what register is copied,
// but moving this line up or down makes a huge difference.
{$IFDEF JUNKOPS}
MOV s1, r9d // after mov r12d, c
{$ENDIF}
// And here is where the two calculated values above are actually used:
// T2 {r12d} := S0 {r10d} + Maj {r12d};
ADD r12d, r10d
MOV T2, r12d
end
end;
Tente você mesmo:
O código está online no GitHub, se você quiser experimentá-lo.
Minhas perguntas:
- Por que copiar inutilmente o conteúdo de um registro para a RAM aumentaria o desempenho?
- Por que a mesma instrução inútil forneceria uma aceleração em algumas linhas e uma desaceleração em outras?
- Esse comportamento é algo que poderia ser explorado previsivelmente por um compilador?