Python中的大型Web数据集 - 如何处理非常大的数组?

时间:2016-02-04 16:08:38

标签: python numpy cassandra bigdata

我们目前正在使用Cassandra(http://cassandra.apache.org/)来获取时间序列数据。 Cassandra读取速度非常快,但我们必须在呈现它之前对我们的数据执行一系列计算(实际上我们正在模仿SQL的SUM和GROUP BY功能 - Something Cassandra不支持开箱即用)

我们熟悉Python(在某种程度上),并决定构建一个脚本来查询我们的Cassandra集群,并执行数学运算并以JSON格式显示结果:

query = (
    "SELECT query here...")

startTimeQuery = time.time()

# Executes cassandra query
rslt = cassession.execute(query)

print("--- %s seconds to query ---" % (time.time() - startTimeQuery))

tally = {}

startTimeCalcs = time.time()
for row in rslt:
    userid = row.site_user_id

    revenue = (int(row.revenue) - int(row.reversals_revenue or 0))
    accepted = int(row.accepted or 0)
    reversals_revenue = int(row.reversals_revenue or 0)
    error = int(row.error or 0)
    impressions_negative = int(row.impressions_negative or 0)
    impressions_positive = int(row.impressions_positive or 0)
    rejected = int(row.rejected or 0)
    reversals_rejected = int(row.reversals_rejected or 0)

    if tally.has_key(userid):
        tally[userid]["revenue"] += revenue
        tally[userid]["accepted"] += accepted
        tally[userid]["reversals_revenue"] += reversals_revenue
        tally[userid]["error"] += error
        tally[userid]["impressions_negative"] += impressions_negative
        tally[userid]["impressions_positive"] += impressions_positive
        tally[userid]["rejected"] += rejected
        tally[userid]["reversals_rejected"] += reversals_rejected
    else:
        tally[userid] = {
            "accepted": accepted,
            "error": error,
            "impressions_negative": impressions_negative,
            "impressions_positive": impressions_positive,
            "rejected": rejected,
            "revenue": revenue,
            "reversals_rejected": reversals_rejected,
            "reversals_revenue": reversals_revenue
        }


print("--- %s seconds to calculate results ---" % (time.time() - startTimeCalcs))

startTimeJson = time.time()
jsonOutput =json.dumps(tally)
print("--- %s seconds for json dump ---" % (time.time() - startTimeJson))

print("--- %s seconds total ---" % (time.time() - startTimeQuery))

print "Array Size: " + str(len(tally)) 

这是我们得到的那种输出:

--- 0.493520975113 seconds to query ---
--- 23.1472680569 seconds to calculate results ---
--- 0.546246051788 seconds for json dump ---
--- 24.1871240139 seconds total ---
Array Size: 198124

我们在计算上花费了大量时间,我们知道问题并不是总和和分组本身:它只是数组的绝对大小。

我们听到了一些关于 numpy 的好消息,但我们数据的性质使得矩阵大小未知。

我们正在寻找有关如何处理此问题的任何提示。包括完全不同的编程方法。

2 个答案:

答案 0 :(得分:1)

我做了一个非常类似的处理,我也担心处理时间。我认为你没有考虑重要的事情:你从cassandra收到的结果对象,因为函数> flight_postgres_2 %>% summarize(n()) %>% explain() <SQL> SELECT "n()" FROM (SELECT COUNT() AS "n()" FROM (SELECT * FROM flights) AS "zzz11") AS "zzz13" <PLAN> selectid order from detail 1 0 0 0 SCAN TABLE flights USING COVERING INDEX flights_year_month_day 的返回不包含你想要的所有行。相反,它包含一个分页结果,并在扫描execute()列表中的对象时获取行。这是基于个人观察,但我不知道提供更多技术细节。

我建议您通过在for命令之后添加一个简单的rslt = list(rslt)来隔离查询和处理结果,这会强制python在执行处理之前遍历结果中的所有行,在进行处理之前强制cassandra驱动程序获取所需的所有行。

我认为您会发现很多处理时间实际上是在查询,但是驱动程序通过分页结果对其进行了屏蔽。

答案 1 :(得分:0)

Cassandra 2.2及更高版本允许用户定义聚合函数。您可以使用它在cassandra端执行列计算。 有关用户定义聚合的数据

,请参阅DataStax article