首页
学习
活动
专区
圈层
工具
发布
社区首页 >问答首页 >Hadoop只使用主节点处理数据。

Hadoop只使用主节点处理数据。
EN

Stack Overflow用户
提问于 2014-09-20 04:41:13
回答 1查看 625关注 0票数 1

我已经设置了一个Hadoop2.5集群,其中包含1个主节点( namenode和二级namenode和datanode)和2个从节点(Datanode),机器的.All使用Linux CentOS 7-64位。当我运行我的MapReduce程序(wordcount)时,我只能看到主节点正在使用额外的CPU和RAM。从节点没有做任何事情。

我检查了所有namenode的日志,从节点上没有什么问题。资源管理器正在运行,所有从节点都可以看到资源管理器。Datanodes在分布式数据存储方面开展工作,但我看不到任何分布式数据处理的迹象。我是否必须以其他方式配置xml配置文件,以便所有机器在运行MapReduce作业时都将处理数据?

谢谢

EN

回答 1

Stack Overflow用户

回答已采纳

发布于 2014-09-20 15:55:25

确保您正在提到主节点网络文件上的守护进程的IP地址。此外,集群中的每个节点都应该包含其他计算机的IP地址。此外,如果包含相关的datanodes条目,检查是否包含包含文件。

票数 1
EN
页面原文内容由Stack Overflow提供。腾讯云小微IT领域专用引擎提供翻译支持
原文链接:

https://stackoverflow.com/questions/25945312

复制
相关文章

相似问题

领券
问题归档专栏文章快讯文章归档关键词归档开发者手册归档开发者手册 Section 归档