随机矩阵的所有行的快速随机加权选择

时间:2015-12-09 19:14:59

标签: python numpy matrix vectorization random-sample

numpy.random.choice允许从矢量中加权选择,即

arr = numpy.array([1, 2, 3])
weights = numpy.array([0.2, 0.5, 0.3])
choice = numpy.random.choice(arr, p=weights) 

以概率0.2选择1,以概率0.5选择2,以概率0.3选择3。

如果我们想以矢量化方式快速完成2D阵列(矩阵),其中每个行都是概率向量,该怎么办?也就是说,我们想要一个随机矩阵的选择向量?这是超级慢的方式:

import numpy as np

m = 10
n = 100 # Or some very large number

items = np.arange(m)
prob_weights = np.random.rand(m, n)
prob_matrix = prob_weights / prob_weights.sum(axis=0, keepdims=True)

choices = np.zeros((n,))
# This is slow, because of the loop in Python
for i in range(n):
    choices[i] = np.random.choice(items, p=prob_matrix[:,i])

print(choices)

array([ 4.,  7.,  8.,  1.,  0.,  4.,  3.,  7.,  1.,  5.,  7.,  5.,  3.,
        1.,  9.,  1.,  1.,  5.,  9.,  8.,  2.,  3.,  2.,  6.,  4.,  3.,
        8.,  4.,  1.,  1.,  4.,  0.,  1.,  8.,  5.,  3.,  9.,  9.,  6.,
        5.,  4.,  8.,  4.,  2.,  4.,  0.,  3.,  1.,  2.,  5.,  9.,  3.,
        9.,  9.,  7.,  9.,  3.,  9.,  4.,  8.,  8.,  7.,  6.,  4.,  6.,
        7.,  9.,  5.,  0.,  6.,  1.,  3.,  3.,  2.,  4.,  7.,  0.,  6.,
        3.,  5.,  8.,  0.,  8.,  3.,  4.,  5.,  2.,  2.,  1.,  1.,  9.,
        9.,  4.,  3.,  3.,  2.,  8.,  0.,  6.,  1.])

This post表明cumsumbisect可能是一种潜在的方法,而且速度很快。但是虽然numpy.cumsum(arr, axis=1)可以沿numpy数组的一个轴执行此操作,但bisect.bisect函数一次只能在单个数组上运行。同样,numpy.searchsorted也仅适用于一维数组。

有没有一种快速的方法只使用矢量化操作?

2 个答案:

答案 0 :(得分:17)

这是一个非常快速的完全矢量化版本:

def vectorized(prob_matrix, items):
    s = prob_matrix.cumsum(axis=0)
    r = np.random.rand(prob_matrix.shape[1])
    k = (s < r).sum(axis=0)
    return items[k]

理论上searchsorted是用于在累积求和概率中查找随机值的正确函数,但m相对较小,{{1}最终变得更快。它的时间复杂度为O(m),而k = (s < r).sum(axis=0)方法为O(log(m)),但这只会对更大的searchsorted产生影响。 同样m是O(m),因此cumsum和@ perimosocordiae的vectorized都是O(m)。 (如果您的improved实际上要大得多,那么在此方法较慢之前,您必须运行一些测试以查看m的大小。)

以下是我使用mm = 10的时间(使用@ perimosocordiae答案中的n = 10000original函数):

improved

定义函数的完整脚本是:

In [115]: %timeit original(prob_matrix, items)
1 loops, best of 3: 270 ms per loop

In [116]: %timeit improved(prob_matrix, items)
10 loops, best of 3: 24.9 ms per loop

In [117]: %timeit vectorized(prob_matrix, items)
1000 loops, best of 3: 1 ms per loop

答案 1 :(得分:3)

我认为不可能完全对此进行矢量化,但你仍然可以通过尽可能多地进行矢量化来获得不错的加速。这就是我想出的:

def improved(prob_matrix, items):
    # transpose here for better data locality later
    cdf = np.cumsum(prob_matrix.T, axis=1)
    # random numbers are expensive, so we'll get all of them at once
    ridx = np.random.random(size=n)
    # the one loop we can't avoid, made as simple as possible
    idx = np.zeros(n, dtype=int)
    for i, r in enumerate(ridx):
      idx[i] = np.searchsorted(cdf[i], r)
    # fancy indexing all at once is faster than indexing in a loop
    return items[idx]

针对问题中的版本进行测试:

def original(prob_matrix, items):
    choices = np.zeros((n,))
    # This is slow, because of the loop in Python
    for i in range(n):
        choices[i] = np.random.choice(items, p=prob_matrix[:,i])
    return choices

这是加速(使用问题中给出的设置代码):

In [45]: %timeit original(prob_matrix, items)
100 loops, best of 3: 2.86 ms per loop

In [46]: %timeit improved(prob_matrix, items)
The slowest run took 4.15 times longer than the fastest. This could mean that an intermediate result is being cached
10000 loops, best of 3: 157 µs per loop

我不确定为什么我的版本的时间差异很大,但即使是最慢的运行(~650μs)仍然快了近5倍。