使用dask.delayed和pandas.DataFrame

时间:2019-03-22 11:15:11

标签: dask dask-delayed

我正在努力将dask.bag的词典转换为dask.delayed pandas.DataFrames到最终的dask.dataframe

我有一个函数(make_dict)可以将文件读入一个相当复杂的嵌套字典结构中,另一个函数(make_df)可以将这些字典转换为pandas.DataFrame(每个文件的数据帧约为100 mb)。我想将所有数据帧附加到单个dask.dataframe中,以进行进一步的分析。

到目前为止,我一直在使用dask.delayed对象来加载,转换和附加所有运行良好的数据(请参见下面的示例)。但是,为了以后的工作,我想使用dask.bag将加载的字典存储在dask.persist()中。

我设法将数据加载到dask.bag中,生成了字典或pandas.DataFrame的列表,可以在调用compute()之后在本地使用。但是,当我尝试使用dask.bagdask.dataframe变成to_delayed()时,我陷入了错误(请参阅下文)。

感觉好像我在这里遗漏了一些简单的东西,或者也许我对dask.bag的方法是错误的?

以下示例显示了我使用简化函数的方法,并引发了相同的错误。任何有关如何解决此问题的建议都将受到赞赏。

import numpy as np
import pandas as pd
import dask
import dask.dataframe
import dask.bag

print(dask.__version__) # 1.1.4
print(pd.__version__) # 0.24.2

def make_dict(n=1):
    return {"name":"dictionary","data":{'A':np.arange(n),'B':np.arange(n)}}

def make_df(d):
    return pd.DataFrame(d['data'])

k = [1,2,3]

# using dask.delayed
dfs = []
for n in k:
    delayed_1 = dask.delayed(make_dict)(n)
    delayed_2 = dask.delayed(make_df)(delayed_1)
    dfs.append(delayed_2)
ddf1 = dask.dataframe.from_delayed(dfs).compute() # this works as expected

# using dask.bag and turning bag of dicts into bag of DataFrames
b1 = dask.bag.from_sequence(k).map(make_dict)
b2 = b1.map(make_df)

df = pd.DataFrame().append(b2.compute()) # <- I would like to do this using delayed dask.DataFrames like above
ddf2 = dask.dataframe.from_delayed(b2.to_delayed()).compute() # <- this fails

# error:
# ValueError: Expected iterable of tuples of (name, dtype), got [   A  B
# 0  0  0]

我最终想使用分布式调度程序做什么:

b = dask.bag.from_sequence(k).map(make_dict)
b = b.persist()
ddf = dask.dataframe.from_delayed(b.map(make_df).to_delayed())

1 个答案:

答案 0 :(得分:0)

在袋子中,延迟的对象指向元素列表,因此您有一个熊猫数据框列表列表,这并不是您想要的。两个建议

  1. 只要坚持一下dask.delayed。看来对您来说效果不错
  2. 使用Bag.to_dataframe方法,该方法需要一堆字典,并自行进行数据框转换
相关问题