首页
学习
活动
专区
圈层
工具
发布
社区首页 >问答首页 >Datastax DSBulk实用程序在将CSV数据加载到Astra时出现错误

Datastax DSBulk实用程序在将CSV数据加载到Astra时出现错误
EN

Stack Overflow用户
提问于 2021-09-29 14:24:17
回答 2查看 103关注 0票数 1

我正在使用DSBulk实用程序将数据从EC2 Cassandra节点迁移到DataStax Astra (高级帐户)。

使用的命令:dsbulk load -url folder_created_during_unload -header true -k keyspace -t table -b "secure-connect-file.zip" -u username -p password

此命令在几秒钟后显示错误。查看文档后,我发现可以在此命令中添加--executor.maxPerSecond来限制加载。

在此之后,load命令执行时没有任何错误。但是,如果我输入的值超过15,000,则load命令将再次开始显示错误。

现在,如果一个表有超过1亿个条目,并且每秒有15000个条目被迁移,那么完成一个表的迁移需要几个小时。整个数据库需要几天的时间才能迁移。

我想了解是什么导致了这个错误,以及是否有一种方法可以更快地加载数据。

EN

回答 2

Stack Overflow用户

发布于 2021-09-29 18:29:46

这里发生的情况是,DSBulk正在达到数据库的速率限制。目前,看起来提高速率限制的唯一方法是向support提交工单。

要提交工单,请查看Astra Dashboard左侧导航的"Other Resources“部分。点击底部的"Get Support“。

弹出帮助中心后,点击右下角的创建请求。

在下一页中,单击右上角的绿色/青色“提交工单”按钮。描述您遇到的问题(速率限制),以及当DSBulk设置为超过15k/秒时的输出。

票数 2
EN

Stack Overflow用户

发布于 2021-09-29 22:47:45

为了增加Aaron的响应,您在Astra DB上达到了每秒4K操作的默认限制。

上周,当我们检测到您正在达到限制时,我们直接联系了您,但没有收到回复。今天,我再次直接联系您,告诉您我已经代表您记录了一个请求,要求增加您的数据库的限制。干杯!

票数 1
EN
页面原文内容由Stack Overflow提供。腾讯云小微IT领域专用引擎提供翻译支持
原文链接:

https://stackoverflow.com/questions/69378291

复制
相关文章

相似问题

领券
问题归档专栏文章快讯文章归档关键词归档开发者手册归档开发者手册 Section 归档