首页
学习
活动
专区
圈层
工具
发布
社区首页 >问答首页 >MySQL:用于导入大型文件的BigDump的替代方案

MySQL:用于导入大型文件的BigDump的替代方案
EN

Stack Overflow用户
提问于 2017-05-02 16:17:30
回答 1查看 752关注 0票数 1

我正在尝试将一个40 to的.sql文件导入到一个新的MySQL数据库中。有什么替代BigDump的方法吗?BigDump上的连接在大约30分钟后超时。理想情况下,我也可以找到一个具有某种进度条的解决方案。

谢谢!

EN

回答 1

Stack Overflow用户

回答已采纳

发布于 2017-05-08 18:31:16

1)将1文件拆分为N行(通常我建议为100,000行),这将创建(文件/N中的总计行)文件。

2)创建一个没有索引的新表。

3)运行一个for循环bash脚本,在自己的事务中分别加载每个文件。

4)必要时添加索引

5)删除/重命名要替换的现有表,并将新表重命名为生产(如果需要的话)。

由于多种原因,此选项非常有用,即它可以帮助快速发现问题(例如意外跳过的行),快速了解加载的有效性,并对负载进行分段,以避免大规模的单个事务,从而避免出现故障点。

我从未使用过BigDump,但我猜想它会做类似的事情。

类似的Q&A:Copying 3B rows in SQL Table?

票数 1
EN
页面原文内容由Stack Overflow提供。腾讯云小微IT领域专用引擎提供翻译支持
原文链接:

https://stackoverflow.com/questions/43742737

复制
相关文章

相似问题

领券
问题归档专栏文章快讯文章归档关键词归档开发者手册归档开发者手册 Section 归档