Eu estava tentando implementar um teste de primalidade Miller-Rabin e fiquei intrigado por que estava demorando tanto (> 20 segundos) para números de tamanho médio (~ 7 dígitos). Acabei descobrindo que a seguinte linha de código é a origem do problema:
x = a**d % n
(onde a
,, d
e n
são todos semelhantes, mas desiguais, números de tamanho médio, **
é o operador de exponenciação e %
é o operador de módulo)
Em seguida, tentei substituí-lo pelo seguinte:
x = pow(a, d, n)
e, em comparação, é quase instantâneo.
Para contexto, aqui está a função original:
from random import randint
def primalityTest(n, k):
if n < 2:
return False
if n % 2 == 0:
return False
s = 0
d = n - 1
while d % 2 == 0:
s += 1
d >>= 1
for i in range(k):
rand = randint(2, n - 2)
x = rand**d % n # offending line
if x == 1 or x == n - 1:
continue
for r in range(s):
toReturn = True
x = pow(x, 2, n)
if x == 1:
return False
if x == n - 1:
toReturn = False
break
if toReturn:
return False
return True
print(primalityTest(2700643,1))
Um exemplo de cálculo cronometrado:
from timeit import timeit
a = 2505626
d = 1520321
n = 2700643
def testA():
print(a**d % n)
def testB():
print(pow(a, d, n))
print("time: %(time)fs" % {"time":timeit("testA()", setup="from __main__ import testA", number=1)})
print("time: %(time)fs" % {"time":timeit("testB()", setup="from __main__ import testB", number=1)})
Resultado (executado com PyPy 1.9.0):
2642565
time: 23.785543s
2642565
time: 0.000030s
Saída (executado com Python 3.3.0, 2.7.2 retorna tempos muito semelhantes):
2642565
time: 14.426975s
2642565
time: 0.000021s
E uma questão relacionada, por que esse cálculo é quase duas vezes mais rápido quando executado com Python 2 ou 3 do que com PyPy, quando geralmente PyPy é muito mais rápido ?
>>> print pow.__doc__ pow(x, y[, z]) -> number With two arguments, equivalent to x**y. With three arguments, equivalent to (x**y) % z, but may be more efficient (e.g. for longs).