首页
学习
活动
专区
圈层
工具
发布
社区首页 >问答首页 >从Blob存储帐户到CosmosDb的复制活动非常缓慢

从Blob存储帐户到CosmosDb的复制活动非常缓慢
EN

Stack Overflow用户
提问于 2018-12-14 15:15:38
回答 1查看 223关注 0票数 2

情况:

我使用来自azure-data-factory复制活动将一个json文件从500 MB存储帐户-blob复制到CosmosDB,并从CosmosDb复制到存储帐户-blob

AzureBlobStorageLinkedService配置了一个SAS

时代:

CosmosDb到一个存储帐户-blob:4分钟

存储-帐户-blob到CosmosDB:2小时-超过7小时(超时)

CosmosDB:

在启动复制活动之前,将创建一个包含20.000 RU/s的空集合。我看了一下CosmosDB的度量标准,它真的很无聊。只有几个429个错误。我们有“默认索引配置”和一个partitionKey。这意味着我们有来自多个分区键范围(分区)的多个partitionKeys的数据。

数据:

在json文件中有48.000 json对象。有些是,有些可以有200 KB

尝试:

我尝试使用不同的WriteBatchSizes:

代码语言:javascript
复制
5: 2 hours

100: 2 hours

10.000: 7 hours (timeout)

我用相同的/不同的区域试过,=>没有区别

我尝试用较小的文件=> --它们更快(500 KB/s而不是50 KB/s)

问题:

为什么这么慢?500 MB的文件是不是太大了?

EN

回答 1

Stack Overflow用户

回答已采纳

发布于 2018-12-17 13:13:19

我尝试了非常高的吞吐量值,它运行得很好:

代码语言:javascript
复制
1.000.000 RU/s: 9 Minuten ✔
100.000 RU/s: 15 Minuten ✔

但是我必须考虑在数据传输完成后缩小规模,因为成本太高了!

票数 0
EN
页面原文内容由Stack Overflow提供。腾讯云小微IT领域专用引擎提供翻译支持
原文链接:

https://stackoverflow.com/questions/53782396

复制
相关文章

相似问题

领券
问题归档专栏文章快讯文章归档关键词归档开发者手册归档开发者手册 Section 归档