首页
学习
活动
专区
圈层
工具
发布
社区首页 >问答首页 >Spark HDFS在AWS上的大小?

Spark HDFS在AWS上的大小?
EN

Stack Overflow用户
提问于 2015-01-31 15:38:27
回答 1查看 183关注 0票数 3

我使用--ebs-vol-size=1000运行了spark-ec2脚本(并且附加了1000 run的卷),但是当我运行hadoop dfsadmin -report时,只显示:

代码语言:javascript
复制
Configured Capacity: 396251299840 (369.04 GB)

每个节点。如何增加空间或告知HDFS使用全部容量?

EN

回答 1

Stack Overflow用户

发布于 2015-11-07 07:53:04

运行lsblk并查看卷的挂载位置。可能是vol0。在hdfs-site.xml中,将/vol0 to dfs.data.dir值添加到现有默认值的逗号后面。将其复制到所有slaves并重启集群。您现在应该看到已满容量

票数 0
EN
页面原文内容由Stack Overflow提供。腾讯云小微IT领域专用引擎提供翻译支持
原文链接:

https://stackoverflow.com/questions/28249397

复制
相关文章

相似问题

领券
问题归档专栏文章快讯文章归档关键词归档开发者手册归档开发者手册 Section 归档