如何并行化跟踪以前值的函数?

时间:2017-03-16 12:49:27

标签: python apache-spark pyspark

我正在尝试并行化以下python脚本。

import random

tmp = []
cur = 100

while len(tmp) < 1000:
    condition = random.choice([True, False])
    if condition:
        amt = cur * 0.1
        tmp.append(amt)
        cur = cur - amt
    else:
        cur = cur + 5

print(sum(tmp))

我知道我可以首先并行化大小为1000的数组并使用map来获取condition的值,例如:

import random
x = range(1001)
rdd = sc.parallelize(x).map(lambda _:random.choice([True, False]))
print rdd.collect()

但是,我陷入了减少逻辑。

0 个答案:

没有答案
相关问题