巨大的mysqldump导入

时间:2016-12-12 11:47:39

标签: mysql

我有一个200 + GB的mysql转储文件,我需要将其导入到我的开发机器上运行的本地sql server。我使用'mysql<尝试了一个简单的转储恢复。 db_backup.sql'的方法并设法恢复大约85%的数据库,然后命中'mysql服务器已经消失'错误。这需要5天的时间。

我想知道是否有一种方法可以将部分恢复的数据库与转储文件进行比较,以了解哪些表仍处于待定状态,或者是否有一个显着(至少4倍)的快速方法可以从一个巨大的转储文件中恢复。

任何建议都将不胜感激。 感谢。

1 个答案:

答案 0 :(得分:0)

我遇到过类似的问题,但信息要少得多(MB的hundreads,而不是GB)。我试过BigDump,它在查询中拆分内部内容,这样你的恢复操作不会超时(我认为这是错误的原因 - 'mysql服务器已经消失')。

但是,如果您可以控制转储的获取方式,我会考虑拆分数据以恢复和优化导出。一种方法是将大型表数据拆分为单独的转储。

此外,所有插入都可以定义为扩展插入(一个INSERT具有多个插入值),以节省一些空间。