使用dask-distributed如何从队列提供的长时间运行的任务中生成未来

时间:2017-12-15 05:01:20

标签: dask dask-distributed

我正在使用磁盘分布式长时间运行的任务,沿着此示例http://matthewrocklin.com/blog/work/2017/02/11/dask-tensorflow的行,其中长时间运行的工作任务从tensorflow示例中的队列获取其输入,并将其结果传递到输出队列。 (我没有看到最新版本的dask中的示例中使用的频道)。

我可以看到如何分散列表并应用地图来生成将输入数据推送到工作人员输入队列的期货列表。

def transfer_dask_to_worker(batch):
    worker = get_worker()
    worker.tensorflow_queue.put(batch)

data = [1,2,3,4] 

future_data = e.scatter(data)

tasks = e.map(transfer_dask_to_worker, future_data ,
     workers=dask_spec['worker'], pure=False)

现在,如果我们等待worker消耗任务,则所有结果都将在worker的输出队列中。我们可以使用

将其全部撤回
def transfer_worker_to_dask(arg):
    worker = get_worker()
    return worker.output_queue.get()

results = e.map(transfer_worker_to_dask,range(len(tasks)))

只要我们通过在调用它们之前等待所有工作任务完成来手动处理排序,这样就可以正常工作。

我们如何将输出期货链接到输入的下游?有没有办法让长时间运行的任务在工人上创建可以收回调度程序任务的未来?

我试过让transfer_dask_to_worker(batch)也查询输出队列并返回结果:

def transfer_dask_to_worker_and_return(batch):
    worker = get_worker()
    worker.tensorflow_queue.put(batch)
    return worker.output_queue.get()

这适用于短名单但开始失败,取消了大约1000个项目的期货。

提前致谢。

1 个答案:

答案 0 :(得分:2)

注意:该博文是实验性的。这里有几种方法,我不会将自己局限于那种模式

让我们从这个具体问题开始:

我们如何将输出期货链接到输入的下游?有没有办法让长时间运行的任务在工人上创建可以收回调度程序任务的未来?

这里最简单的解决方案可能是分散本地数据,然后将其放入Dask distributed Queue。因此,如果你有一个TensorFlow代码在产生一些结果时调用的函数,那么该函数可能会将本地数据分散到未来(这实际上并没有移动数据,只是让Dask工作者开始跟踪它)然后将未来放入分布式队列中。将未来放在队列中允许Dask中的其他客户和工作人员知道数据的存在,并在必要时将其拉下来

from dask.distributed import Queue
results_q = Queue()

def tf_result_ready(result):
    future = get_worker().scatter(result)
    results_q.put(future)

然后,您可以坐在客户端代码中,并在此队列可用时从中拉出结果:

for _ in range(n_blocks):
    future = results_q.get()
    # do stuff with future like submit or gather
相关问题