首页
学习
活动
专区
圈层
工具
发布
社区首页 >问答首页 >s3a上传限制带宽?

s3a上传限制带宽?
EN

Stack Overflow用户
提问于 2018-07-26 09:19:14
回答 1查看 199关注 0票数 0

我试图上传从IDC到AWS S3使用火花+hadoop。

由于IDC中的服务器带宽有限,并且与我们的生产want服务器共享,所以我想限制(节流)带宽上传。

如何使用hadoop限制上传带宽?

EN

回答 1

Stack Overflow用户

回答已采纳

发布于 2018-07-30 17:06:35

如果您正在使用distcp,您可以为每个工作人员设置最大带宽,设置工作人员的最大带宽,然后峰值带宽就会从这个值中下降。

如果是FWIW,这是我的CloudCP应用程序;在星火中这样做的例子。我想你需要限制每个文件的上传速度,并可能做一些全局节流,这将是一个相当复杂的工作:你需要每一个工作人员做油门,得到每一个上传的时间和带宽,并使用它来调整下一个文件。

第一个起点是org.apache.hadoop.fs.FileUtil.copy()的带宽节流版本,以限制上传速率;管理好它和#的工作人员,您就可以控制一下了。

票数 1
EN
页面原文内容由Stack Overflow提供。腾讯云小微IT领域专用引擎提供翻译支持
原文链接:

https://stackoverflow.com/questions/51535300

复制
相关文章

相似问题

领券
问题归档专栏文章快讯文章归档关键词归档开发者手册归档开发者手册 Section 归档