Numpy项目比operator []更快

时间:2015-09-01 14:06:08

标签: python performance numpy

我在python中有以下代码,至少对我来说会产生奇怪的结果:

import numpy as np
import timeit

a = np.random.rand(3,2)

print timeit.timeit('a[2,1] + 1', 'from __main__ import a', number=1000000)
print timeit.timeit('a.item((2,1)) + 1', 'from __main__ import a', number=1000000)

这给出了结果:

0.533630132675
0.103801012039

如果我只尝试访问numpy元素似乎没问题,但是当增加这个元素时,时间变得奇怪......为什么时间上有这么大差异?

1 个答案:

答案 0 :(得分:18)

在这种情况下,他们不会返回相同的东西。 a[2,1]返回numpy.float64,而a.item((2,1))返回本机python浮点数。

原生与numpy 标量floatint等)

numpy.float64标量与本机python float完全相同(但它们的行为相同)。使用本机python浮点数对单个元素的简单操作会更快,因为间接性较低。有关详细信息,请查看docstring for ndarray.item

作为速度差异的一个例子,请考虑以下因素:

In [1]: x = 1.2

In [2]: y = np.float64(1.2)

In [3]: %timeit x + 1
10000000 loops, best of 3: 58.9 ns per loop

In [4]: %timeit y + 1
1000000 loops, best of 3: 241 ns per loop

最初,我错误地说第二个因素是a.item(...)略快于a[...]。这实际上并非如此。 a.item将numpy标量转换为本机python标量所花费的时间压倒了a[...] / a.__getitem__(...)中额外逻辑所需的时间。

不要将此结果推广到多个项目

但是,你应该小心尝试将numpy标量所发生的事情概括为numpy数组如何作为一个整体运行。如果您在numpy中进行了大量的单项索引,那么它通常是一种反模式。

例如,比较:

In [5]: a = np.random.rand(1000)

In [6]: %timeit a + 1
100000 loops, best of 3: 2.32 us per loop

无论我们做什么,我们都无法匹配上述矢量化版本(a + 1)的速度(或更低的内存使用量):

In [7]: %timeit [x + 1 for x in a]
1000 loops, best of 3: 257 us per loop

In [8]: %timeit [a.item(i) + 1 for i in range(len(a))]
1000 loops, best of 3: 208 us per loop

其中一些原因是因为迭代ndarray s比遍历列表要慢。为了进行完全公平的比较,让我们将所有内容转换为本机python浮点数列表:

In [9]: b = a.tolist()

In [10]: type(b[0])
Out[10]: float

In [11]: %timeit [x + 1 for x in b]
10000 loops, best of 3: 69.4 us per loop

显然,当您在较大的阵列上操作时,使用矢量化操作(第一种情况)要快得多。它的内存效率也要高得多,因为list需要存储指向每个项目的指针,而ndarray s在内存中是连续的。