Eu tenho um script para converter arquivos de vídeo e o executo no servidor com dados de teste e meço seu tempo time
. Em resultado, vi:
real 2m48.326s
user 6m57.498s
sys 0m3.120s
Por que o tempo real é muito menor que o tempo do usuário? Isso tem alguma conexão com multithreading? Ou o que mais?
Edit: E eu acho que esse script estava rodando cerca de 2m48s
real
o tempo é tempo de relógio de parede como explicado abaixo (ou seja, o que mediria se tivéssemos um stop-relógio)