Enquanto trabalhava em um script completamente diferente, aprendi que, com 29 milhões de linhas de texto, o uso seek()
e a operação de dados bytewise geralmente são mais rápidos do que linha por linha. A mesma idéia é aplicada no script abaixo: abrimos o arquivo e, em vez de repetir a abertura e o fechamento do arquivo (o que pode adicionar sobrecarga, mesmo que não seja significativo), mantemos o arquivo aberto e procuramos o início.
#!/usr/bin/env python3
from __future__ import print_function
import sys,os
def error_out(string):
sys.stderr.write(string+"\n")
sys.exit(1)
def read_bytewise(fp):
data = fp.read(1024)
print(data.decode(),end="",flush=True)
while data:
data = fp.read(1024)
print(data.decode(),end="",flush=True)
#fp.seek(0,1)
def main():
howmany = int(sys.argv[1]) + 1
if not os.path.isfile(sys.argv[2]):
error_out("Needs a valid file")
fp = open(sys.argv[2],'rb')
for i in range(1,howmany):
#print(i)
fp.seek(0)
read_bytewise(fp)
fp.close()
if __name__ == '__main__': main()
O script em si é bastante simples de usar:
./repeat_text.py <INT> <TEXT.txt>
Para arquivos de texto de 3 linhas e 1000 iterações, tudo fica bem, cerca de 0,1 segundos:
$ /usr/bin/time ./repeat_text.py 1000 input.txt > /dev/null
0.10user 0.00system 0:00.23elapsed 45%CPU (0avgtext+0avgdata 9172maxresident)k
0inputs+0outputs (0major+1033minor)pagefaults 0swaps
O script em si não é muito elegante, provavelmente pode ser reduzido, mas faz o trabalho. Obviamente, adicionei alguns bits extras aqui e ali, como error_out()
funções, o que não é necessário - é apenas um pequeno toque fácil de usar.