熊猫卡在to_sql函数上

时间:2018-11-12 10:20:50

标签: python pandas sqlalchemy

我有要插入数据库的数据框。 df没那么大(〜15,000行)。我试图为此使用to_sql()函数,但出现超时。我是这样的:

    df.to_sql(
        table.name,
        connection,
        if_exists='append',
        index=False,
        chunksize=self.get_insert_chucksize(df),
        schema=table.schema
    )

我检查以确保所有参数都有效,并且我知道这很好,因为当我这样做时:

    df.head().to_sql(
        table.name,
        connection,
        if_exists='append',
        index=False,
        chunksize=self.get_insert_chucksize(df),
        schema=table.schema
    )

工作正常。 因此,这看起来像是一个尺寸问题。

但是我也知道它没有那么大,因为当我尝试通过SQLalchemy工具手动执行特定情况时,只需几秒钟即可完成。

我还尝试了不同的小数位数。

任何想法我想念什么?

我认为大熊猫内部可能有问题吗?

0 个答案:

没有答案
相关问题