首页
学习
活动
专区
圈层
工具
发布
社区首页 >问答首页 >apache Hadoop-2.0.0 aplha版本安装在完全集群中

apache Hadoop-2.0.0 aplha版本安装在完全集群中
EN

Stack Overflow用户
提问于 2012-07-19 14:00:03
回答 1查看 444关注 0票数 0

我已经成功安装了hadoop稳定版本。但在安装hadoop -2.0.0版本时感到困惑。

我想在两个节点上安装hadoop-2.0.0-alpha,在两台机器上使用联合。rsi-1和rsi-2是主机名。

为了实现联合,下面的属性的值应该是什么?这两台机器也都用于数据节点。

fs.defaulFS dfs.federation.nameservices dfs.namenode.name.dir dfs.datanode.data.dir yarn.nodemanager.localizer.address yarn.resourcemanager.resource-tracer.Address yarn.resourcemanager.scheduler.address yarn.resourcemanager.address

还有一点,在稳定版本的hadoop中,我在安装目录的conf文件夹下有配置文件。

但是在2.0.0-aplha版本中,有etc/hadoop目录,没有mapred-site.xml,hadoop-env.sh。是否需要将共享文件夹下的conf文件夹复制到hadoop-home目录中?或者我是否需要将这些文件从共享文件夹复制到etc/hadoop目录?

向你致敬,Rashmi

EN

回答 1

Stack Overflow用户

发布于 2012-07-20 09:06:44

您可以运行sbin文件夹中的hadoop-setup-conf.sh。它将逐步指导您进行配置。请记住,当它要求你输入目录路径时,你应该使用完整的链接例如,当它要求输入conf目录时,你应该输入/home/user/Documents/hadoop-2.0.0/etc/hadoop完成后,记得检查etc/hadoop中的每个配置文件。根据我的经验,我修改了hadoop-env.sh中的JAVA_HOME变量和core-site.xml、mapred-site.xml中的一些属性。问候

票数 0
EN
页面原文内容由Stack Overflow提供。腾讯云小微IT领域专用引擎提供翻译支持
原文链接:

https://stackoverflow.com/questions/11554768

复制
相关文章

相似问题

领券
问题归档专栏文章快讯文章归档关键词归档开发者手册归档开发者手册 Section 归档