快速计算熊猫列表中一列值的总出现次数的方法?

时间:2019-04-14 07:21:05

标签: python pandas

我在pandas数据框中有一列,其中包含大量标签列表:

>>> data['SPLIT'].head(10)
0    [33.23, 88.72, 38.93, E931.7, V09.0, 041.11, 5...
1    [99.04, 38.06, 39.57, 00.91, 55.69, V15.82, 27...
2    [96.04, 96.72, 401.9, 276.5, 584.9, 428.0, 507...
3    [96.6, 99.15, 99.83, V29.0, 765.15, 765.25, 77...
4    [96.71, 96.04, 54.12, 99.60, 38.93, 99.15, 53....
5    [88.72, 37.61, 39.61, 36.15, 36.12, 272.0, 401...
6    [38.93, 88.72, 37.31, 272.4, 719.46, 722.0, 31...
7    [88.72, 39.61, 35.71, 272.4, V12.59, 458.29, 7...
8    [97.44, 99.04, 88.56, 37.23, 39.95, 38.95, 00....
9    [00.14, 89.61, 39.95, E878.8, 244.9, 443.9, 18...

我想要做的是遍历所有这些列表以查找每个值的总出现次数,以便我可以找到50个最频繁出现的值。

这是我使用的代码,运行速度非常慢:

test = pd.Series(sum([item for item in data.SPLIT], [])).value_counts()

我试图在外部编写一个函数来遍历列表并找到计数,但这也很慢。

有什么办法可以修改此数据或在熊猫中使用具有与df.groupby.count()类似的性能的函数?

我确实在Google和stackoverflow上搜索了一个半小时,但没有一个答案具有更好的性能。我已经尝试了很长时间,想出一种方法来弄平列表,或者找到一种以更快的速度映射计数的方法(反复遍历50万行,每个列表的长度各不相同,有些可以长达512个,其他短至2)。

2 个答案:

答案 0 :(得分:1)

使用列表推导和扁平化代替sum

test = pd.Series([x for item in data.SPLIT for x in item]).value_counts()

或用chain.from_iterable压平:

from itertools import chain

test = pd.Series(list(chain.from_iterable(data.SPLIT))).value_counts()

或也使用collections.Counter

from itertools import chain
from collections import Counter

test = pd.Series(Counter(chain.from_iterable(data.SPLIT)))

或者:

import functools, operator

test = pd.Series(functools.reduce(operator.iconcat, data.SPLIT, [])).value_counts()

纯熊猫解决方案:

test = pd.DataFrame(data.SPLIT.values.tolist()).stack().value_counts()

答案 1 :(得分:1)

怎么样?

import pandas as pd

split = data["SPLIT"].apply(pd.Series)
split = split.rename(columns = lambda x : 'val_' + str(x))
split.melt(value_name="val").groupby(["val"]).size()
相关问题