首页
学习
活动
专区
圈层
工具
发布
社区首页 >问答首页 >使用spark EC2更改hadoop版本

使用spark EC2更改hadoop版本
EN

Stack Overflow用户
提问于 2015-02-10 23:26:54
回答 1查看 1.2K关注 0票数 9

我想知道,当星体EC2创建集群时,是否可以更改hadoop版本?

我试过了

代码语言:javascript
复制
spark-ec2 -k spark -i ~/.ssh/spark.pem -s 1 launch my-spark-cluster

然后我用

代码语言:javascript
复制
spark-ec2 -k spark -i ~/.ssh/spark.pem login my-spark-cluster

并发现hadoop版本为1.0.4。

我想使用2.x版本的hadoop,最好的配置方法是什么?

EN

回答 1

Stack Overflow用户

回答已采纳

发布于 2015-02-15 15:11:46

Hadoop 2.0

spark-ec2脚本不支持修改现有的集群,但是您可以使用Hadoop 2创建一个新的。

请参阅脚本的--help摘录

代码语言:javascript
复制
  --hadoop-major-version=HADOOP_MAJOR_VERSION
                    Major version of Hadoop (default: 1)

例如:

代码语言:javascript
复制
spark-ec2 -k spark -i ~/.ssh/spark.pem -s 1 --hadoop-major-version=2 launch my-spark-cluster

..will使用Spark和Hadoop 2的当前版本创建集群。

如果您使用Sparkv.1.3.1或Sparkv.1.4.0创建一个独立的集群,那么您将以这种方式获得Hadoop诉2.0.0 MR1 (来自ClouderaHadoopPlatform4.2.0发行版)。

注意事项如下:

successfully使用了一些使用Hadoop2.0.0创建的Spark1.2.0和1.3.1集群,使用了一些特定于Hadoop 2的特性。(对于Spark1.2.0,我已经在火花火花-EC2的分叉中做了一些调整,但这是另一回事。)

Hadoop 2.4、2.6

如果您需要Hadoop2.4Hadoop2.6,那么我目前(截至2015年6月)建议您手动创建一个独立的集群--这比您想象的要容易得多。

票数 8
EN
页面原文内容由Stack Overflow提供。腾讯云小微IT领域专用引擎提供翻译支持
原文链接:

https://stackoverflow.com/questions/28443851

复制
相关文章

相似问题

领券
问题归档专栏文章快讯文章归档关键词归档开发者手册归档开发者手册 Section 归档