如何加快熊猫数据框列类型的转换?

时间:2021-08-02 00:06:03

标签: python pandas dataframe type-conversion

我正在开发一个 python 模块,它允许用户从镶木地板文件中读取超过 100 万行 x 372 列的数据到内存中,供人们进行这样的分析:

data = pandas.read_parquet(url1 + str(year) + url2, columns=columns, engine='fastparquet')

我试图通过转换一些数据类型来主动减少数据大小,例如对象到类别,int64 到 int32 等,通过执行以下操作:

for column in test.select_dtypes(include=['object']):
    
    if len(test[column].unique()) < 100:
        test[column] = test[column].astype('category')
        
for column in test.select_dtypes(include=['int64']):
    
    test[column] = test[column].astype('int32')

for column in test.select_dtypes(include=['float64']):
    
    test[column] = test[column].astype('float32')

这有效并将数据大小减少了约 50%,但速度很慢(完整转换需要约 3 分钟,而进行初始数据导入只需 1 分钟)。有没有另一种方法可以让这个运行得更快? TIA。

1 个答案:

答案 0 :(得分:0)

不要使用 Pandas 方法进行转换,而是尝试使用 numpy 数组,这会更快。例如:

test[column] = np.array(test[column], dtype=np.float32)

从 numpy 文档中检查不同的数据类型: https://numpy.org/doc/stable/reference/arrays.dtypes.html