Scipy.sparse.csr_matrix:如何获得十大价值和指数?

时间:2015-08-03 15:10:53

标签: python scipy sparse-matrix

我有一个很大的csr_matrix,我对每一行的十大价值及其指数感兴趣。但我没有找到一种操纵矩阵的好方法。

这是我目前的解决方案,主要思想是逐行处理它们:

row = csr_matrix.getrow(row_number).toarray()[0].ravel()
top_ten_indicies = row.argsort()[-10:]
top_ten_values = row[row.argsort()[-10:]]

通过这样做,csr_matrix的优点未得到充分利用。它更像是一个强力解决方案。

3 个答案:

答案 0 :(得分:7)

在这种情况下,我看不出csr格式的优点。当然,所有非零值都收集在一个.data数组中,相应的列索引位于.indices中。但它们的长度各不相同。这意味着它们不能并行处理或使用numpy数组步幅。

一种解决方案是将这些块填充到公共长度块中。这就是.toarray()的作用。然后,您可以使用argsort(axis=1) or with argpartition`找到最大值。

另一种方法是将它们分成行大小的块,然后处理每个块。这就是你在.getrow做的事情。另一种解决方法是转换为lil格式,并处理.data.rows数组的子列表。

可能的第三种选择是使用ufunc reduceat方法。这使您可以将ufunc reduction方法应用于数组的顺序块。已经建立了ufuncnp.add,可以利用这一点。 argsort不是这样的功能。但是有一种方法可以从Python函数构造ufunc,并且比常规Python迭代获得一些适度的速度。 [我需要查看最近的一个SO问题来说明这一点。]

我将用一个更简单的函数来说明其中的一些,总结行。

如果A2是csr矩阵。

A2.sum(axis=1)  # the fastest compile csr method
A2.A.sum(axis=1)  # same, but with a dense intermediary
[np.sum(l.data) for l in A2]  # iterate over the rows of A2
[np.sum(A2.getrow(i).data) for i in range(A2.shape[0])]  # iterate with index
[np.sum(l) for l in A2.tolil().data]  # sum the sublists of lil format
np.add.reduceat(A2.data, A2.indptr[:-1])  # with reduceat

A2.sum(axis=1)实现为矩阵乘法。这与排序问题无关,但仍然是查看求和问题的有趣方法。请记住,csr格式是为有效乘法而开发的。

对于我当前的样本矩阵(为另一个SO稀疏问题创建)

<8x47752 sparse matrix of type '<class 'numpy.float32'>'
     with 32 stored elements in Compressed Sparse Row format>

一些比较时间

In [694]: timeit np.add.reduceat(A2.data, A2.indptr[:-1])
100000 loops, best of 3: 7.41 µs per loop

In [695]: timeit A2.sum(axis=1)
10000 loops, best of 3: 71.6 µs per loop

In [696]: timeit [np.sum(l) for l in A2.tolil().data]
1000 loops, best of 3: 280 µs per loop

其他一切都是1毫秒或更长。

我建议专注于开发你的单行函数,例如:

def max_n(row_data, row_indices, n):
    i = row_data.argsort()[-n:]
    # i = row_data.argpartition(-n)[-n:]
    top_values = row_data[i]
    top_indices = row_indices[i]  # do the sparse indices matter?
    return top_values, top_indices, i

然后看看如何适应这些迭代方法之一。 tolil()看起来最有希望。

我没有解决如何收集这些结果的问题。它们应该是列表列表,10列的数组,每行10个值的另一个稀疏矩阵等等吗?

sorting each row of a large sparse & saving top K values & column index - 几年前的类似问题,但没有答案。

Argmax of each row or column in scipy sparse matrix - 最近针对argmax行搜索csr的问题。我讨论了一些相同的问题。

how to speed up loop in numpy? - 如何使用np.frompyfunc创建ufunc的示例。我不知道结果函数是否具有.reduceat方法。

Increasing value of top k elements in sparse matrix - 获取csr的前k个元素(不是按行)。 argpartition的案例。

使用np.frompyfunc实现的行总和:

In [741]: def foo(a,b):
    return a+b  
In [742]: vfoo=np.frompyfunc(foo,2,1)
In [743]: timeit vfoo.reduceat(A2.data,A2.indptr[:-1],dtype=object).astype(float)
10000 loops, best of 3: 26.2 µs per loop

这是可观的速度。但我想不出一种编写二进制函数(需要2个参数)的方法,它将通过简化来实现argsort。所以这可能是这个问题的一个障碍。

答案 1 :(得分:0)

回答最初的问题(对于像我这样的人发现这个问题寻找复制意大利面),这里有一个基于@ hpaulj建议转换为lil_matrix并迭代行的多处理的解决方案

from multiprocessing import Pool

def _top_k(args):
    """
    Helper function to process a single row of top_k
    """
    data, row = args
    data, row = zip(*sorted(zip(data, row), reverse=True)[:k])
    return data, row

def top_k(m, k):
    """
    Keep only the top k elements of each row in a csr_matrix
    """
    ml = m.tolil()
    with Pool() as p:
        ms = p.map(_top_k, zip(ml.data, ml.rows))
    ml.data, ml.rows = zip(*ms)
    return ml.tocsr()

答案 2 :(得分:0)

将需要遍历行并分别获取每一行的最高索引。但是,可以对这个循环进行设置(并并行化)以获得极快的功能。

@nb.njit(cache=True)
def row_topk_csr(data, indices, indptr, K):
    m = indptr.shape[0] - 1
    max_indices = np.zeros((m, K), dtype=indices.dtype)
    max_values = np.zeros((m, K), dtype=data.dtype)

    for i in nb.prange(m):
        top_inds = np.argsort(data[indptr[i] : indptr[i + 1]])[::-1][:K]
        max_indices[i] = indices[indptr[i] : indptr[i + 1]][top_inds]
        max_values[i] = data[indptr[i] : indptr[i + 1]][top_inds]

    return max_indices, max_values

这样称呼:

top_pred_indices, _ = row_topk_csr(csr_mat.data, csr_mat.indices, csr_mat.indptr, K)

我需要经常执行此操作,并且此功能对我来说足够快,可以在1mil x 400k稀疏矩阵上以<1s的时间执行。

HTH。