如何在mpi4py中分散和收集对象的python列表

时间:2018-06-19 07:56:36

标签: python parallel-processing cluster-computing hpc mpi4py

我有一个100,000个python 对象的列表,我想在mpi4py中分散和收集。

当我尝试使用8个处理器时,我得到:

  

SystemError:传递给PyBytes_FromStringAndSize的负大小

关于散射。

当我尝试使用64个处理器时,我得到了相同的错误但是在聚集上。

当我尝试从列表中创建一个对象数组并使用Gather和Scatter时,我得到一个错误,它基本上表明数组的dtype不能是对象。

我能用这种方式工作吗?或者我可以使用除MPI以外的任何其他东西?
我在8节点,64-ppn的计算机上运行它。

2 个答案:

答案 0 :(得分:2)

使用散点图和聚集图,这是一个将numpy数组拆分为100000个项目的示例。

import numpy as np
from mpi4py import MPI
from pprint import pprint
comm = MPI.COMM_WORLD

pprint("-" * 78)
pprint(" Running on %d cores" % comm.size)
pprint("-" * 78)

N = 100000
my_N = N // 8

if comm.rank == 0:
    A = np.arange(N, dtype=np.float64)
else:
    A = np.empty(N, dtype=np.float64)

my_A = np.empty(my_N, dtype=np.float64)

# Scatter data 
comm.Scatter([A, MPI.DOUBLE], [my_A, MPI.DOUBLE])

pprint("After Scatter:")
for r in range(comm.size):
    if comm.rank == r:
        print("[%d] %s" % (comm.rank, len(my_A)))
    comm.Barrier()

# Allgather data into A
comm.Allgather([my_A, MPI.DOUBLE], [A, MPI.DOUBLE])

pprint("After Allgather:")
for r in range(comm.size):
    if comm.rank == r:
        print("[%d] %s" % (comm.rank, len(A)))
    comm.Barrier()

您还可以检查scatterv and gatherv,更多examples herehere

答案 1 :(得分:0)

我不确定这是答案,也不确定您是否还在寻找答案,但是...

因此,您有100,000个python 对象。如果这些对象是常规数据(数据集),而不是某个类的实例,则将数据作为json字符串传递。像这样:

#!/usr/bin/env python

import json
import numpy as np
from mpi4py import MPI


comm = MPI.COMM_WORLD

if comm.rank == 0:
    tasks = [
        json.dumps( { 'a':1,'x':2,'b':3 } ),
        json.dumps( { 'a':3,'x':1,'b':2 } ),
        json.dumps( { 'a':2,'x':3,'b':1 } )
    ]
else:
    tasks = None


# Scatter paramters arrays
unit = comm.scatter(tasks, root=0)

p = json.loads(unit)
print "-"*18
print("-- I'm rank %d in %d size task" % (comm.rank,comm.size) )
print("-- My paramters are: {}".format(p))
print "-"*18

comm.Barrier()

calc = p['a']*p['x']**2+p['b']

# gather results
result = comm.gather(calc, root=0)
# do something with result

if comm.rank == 0:
    print "the result is ", result
else:
    result = None

请注意,如果您只有8个节点/核心,则必须在tasks列表中创建8条记录,并依次分散和收集所有100,000个数据集。如果您的所有数据集都在ALLDATA列表中,则代码可能如下所示:

def calc(a=0,x=0,b=0):
    return a*x**2+b

if comm.rank == 0: collector = []
for xset in zip(*(iter(ALLDATA),) * comm.size):
    task = [ json.dumps(s) for s in xset ]
    comm.Barrier()
    unit = comm.scatter(task if comm.rank == 0 else None, root=0)
    p = json.loads(unit)
    res = json.dumps( calc(**p) )
    totres = comm.gather(res, root=0)
    if comm.rank == 0:
        collector += [ json.loads(x) for x in  totres  ]



if comm.rank == 0:
    print "the result is ", collector
相关问题