我正在尝试将一个40 to的.sql文件导入到一个新的MySQL数据库中。有什么替代BigDump的方法吗?BigDump上的连接在大约30分钟后超时。理想情况下,我也可以找到一个具有某种进度条的解决方案。
谢谢!
发布于 2017-05-08 18:31:16
1)将1文件拆分为N行(通常我建议为100,000行),这将创建(文件/N中的总计行)文件。
2)创建一个没有索引的新表。
3)运行一个for循环bash脚本,在自己的事务中分别加载每个文件。
4)必要时添加索引
5)删除/重命名要替换的现有表,并将新表重命名为生产(如果需要的话)。
由于多种原因,此选项非常有用,即它可以帮助快速发现问题(例如意外跳过的行),快速了解加载的有效性,并对负载进行分段,以避免大规模的单个事务,从而避免出现故障点。
我从未使用过BigDump,但我猜想它会做类似的事情。
https://stackoverflow.com/questions/43742737
复制相似问题