Python - 以最有效的方式对“字节”中的每个字节进行“xor”

时间:2017-10-03 08:32:11

标签: python performance

我有一个“bytes”对象和一个“int”掩码,我想用我的掩码对所有字节做xor。 我在大“字节”对象(~4096 KB)上反复执行此操作。

这是我的代码,它可以很好地工作,只是它非常占用CPU并且减慢了我的脚本:

# 'data' is bytes and 'mask' is int
bmask = struct.pack('!I', mask) # converting the "int" mask to "bytes" of 4 bytes 
a = bytes(b ^ m for b, m in zip(data, itertools.cycle(bmask)))

我能想到的最好的是这个,大约快20倍:

# 'data' is bytes and 'mask' is int
# reversing the bytes of the mask
bmask = struct.pack("<I", mask)
mask = struct.unpack(">I", bmask)[0]

# converting from bytes to array of "int"s
arr = array.array("I", data)

# looping over the "int"s
for i in range(len(arr)):
    arr[i] ^= mask

# must return bytes
a = bytes(arr)

我的问题是:

  1. 有没有更有效的方法(CPU-wize)?
  2. 有没有“更清洁”的方法(不损害性能)?
  3. P.S。如果它有任何重要性,我正在使用Python 3.5

2 个答案:

答案 0 :(得分:3)

我认为使用纯Python可以比算法快得多。 (但Fabio Veronese的回答表明这不是真的)。你可以通过在列表推导中循环来减少一小部分时间,但是那个列表需要转换回一个数组,并且数组必须转换为字节,所以它使用更多的RAM以获得可忽略的好处

但是,您可以使用Numpy让这个更多更快。这是一个简短的演示。

from time import perf_counter
from random import randrange, seed
import array
import numpy as np

seed(42)

def timed(func):
    ''' Timing decorator '''
    def wrapped(*args):
        start = perf_counter()
        result = func(*args)
        stop = perf_counter()
        print('{}: {:.6f} seconds'.format(func.__name__, stop - start))
        return result
    wrapped.__name__ = func.__name__
    wrapped.__doc__ = func.__doc__
    return wrapped

@timed
def do_mask_arr1(data, mask):
    arr = array.array("I", data)
    # looping over the "int"s
    for i in range(len(arr)):
        arr[i] ^= mask
    return arr.tobytes()

@timed
def do_mask_arr2(data, mask):
    arr = array.array("I", data)
    return array.array("I", [u ^ mask for u in arr]).tobytes()

@timed
def do_mask_numpy(data, mask):
    return (np.fromstring(data, dtype=np.uint32) ^ mask).tobytes()

@timed
def make_data(datasize):
    ''' Make some random bytes '''
    return bytes(randrange(256) for _ in range(datasize))

datasize = 100000
mask = 0x12345678
data = make_data(datasize)

d1 = do_mask_arr1(data, mask)
d2 = do_mask_arr2(data, mask)
print(d1 == d2)

d3 = do_mask_numpy(data, mask)
print(d1 == d3)

典型输出

make_data: 0.751557 seconds
do_mask_arr1: 0.026865 seconds
do_mask_arr2: 0.025110 seconds
True
do_mask_numpy: 0.000438 seconds
True

在Linux上运行的旧单核32位2GHz机器上使用Python 3.6.0进行测试。

我刚刚使用datasize = 4000000进行了游戏,do_mask_numpy花了0.0422秒。

答案 1 :(得分:2)

如果你不想使用numpy,另一种选择。优势来自于进行单一比较,同时将掩模大小扩展到所需(取决于数据大小)。

@timed
def do_mask_int(data, mask):
    intdata = int.from_bytes(data, byteorder='little', signed=False)
    strmask = format(mask,'0x')
    strmask = strmask * ((intdata.bit_length() + 31) // 32)
    n = intdata ^ int(strmask, 16)
    return n.to_bytes(((n.bit_length() + 7) // 8), 'little') or b'\0'

结果如下:

make_data: 8.288754 seconds
do_mask_arr1: 0.258530 seconds
do_mask_arr2: 0.253095 seconds
True
do_mask_numpy: 0.010309 seconds
True
do_mask_int: 0.060408 seconds
True

仍然认为numpy更快,但也许不想将其包含在生产环境中。

:] 最好