首页
学习
活动
专区
圈层
工具
发布
社区首页 >问答首页 >批量插入-最佳使用

批量插入-最佳使用
EN

Database Administration用户
提问于 2011-02-17 14:56:00
回答 2查看 2.6K关注 0票数 5

我需要将1.5亿行的int/bigint列从一个SQL实例导出到另一个SQL实例。我使用导出行,并大容量插入将行导入到另一个表。

我将1.5亿行拆分为3个BCP导出文件,每个文件包含5000万行和3个大容量插入。它工作了(15分钟的BCP输出/ 40分钟的批量插入),但是我宁愿只导出一个文件并导入以及一个文件。

从技术上讲,这是可能的,还是我可以对大量的行产生问题?我从未从BCP文件中导入超过5000万行,我也不知道这是如何实现的。BCP的出口或进口有限制吗?

谢谢,

EN

回答 2

Database Administration用户

发布于 2011-02-17 19:48:14

这在技术上是可能的是的。但是,您可以通过在多个磁盘上拥有多个文件(而不是仅仅一个文件)来利用性能提高。为什么不尝试使用一个文件,看看它是否工作,以及性能是什么样的?

以下是大容量插入信息的链接:http://msdn.microsoft.com/en-us/library/ms188365.aspx

票数 3
EN

Database Administration用户

发布于 2011-02-18 12:07:15

如果您确保您的文件系统位于条带存储中。这样你就能防止io瓶颈。仅仅指定不同的位置而不知道它们所使用的是哪种存储,就没有什么意义了。这个工作负载通常具有大量的扫描和大量的写操作,因此条带化肯定会对您有所帮助。

罗纳德。

票数 3
EN
页面原文内容由Database Administration提供。腾讯云小微IT领域专用引擎提供翻译支持
原文链接:

https://dba.stackexchange.com/questions/1293

复制
相关文章

相似问题

领券
问题归档专栏文章快讯文章归档关键词归档开发者手册归档开发者手册 Section 归档