首页
学习
活动
专区
圈层
工具
发布
社区首页 >问答首页 >Hadoop -数据在复制到HDFS时自动平衡?

Hadoop -数据在复制到HDFS时自动平衡?
EN

Stack Overflow用户
提问于 2016-08-13 03:59:39
回答 1查看 323关注 0票数 0

如果我将一组文件复制到Hadoop 7节点集群中的HDFS中,HDFS会自动平衡7个节点的数据吗?我是否可以告诉HDFS将/强制数据约束到集群中的特定节点?

EN

回答 1

Stack Overflow用户

回答已采纳

发布于 2016-08-16 06:41:37

NameNode是决定在集群中不同节点上放置数据块位置的“主人”。理论上,您不应该改变这种行为,因为它是不建议的。如果您将文件复制到hadoop集群,NameNode将自动处理在所有DataNodes上几乎平等地分发它们。

如果您想强制改变这种行为(不建议),这些帖子可能是有用的:

  1. How to put files to specific node?
  2. How to explicilty define datanodes to store a particular given file in HDFS?
票数 2
EN
页面原文内容由Stack Overflow提供。腾讯云小微IT领域专用引擎提供翻译支持
原文链接:

https://stackoverflow.com/questions/38929044

复制
相关文章

相似问题

领券
问题归档专栏文章快讯文章归档关键词归档开发者手册归档开发者手册 Section 归档