首页
学习
活动
专区
圈层
工具
发布
社区首页 >问答首页 >是否可以在hadoop3集群上运行Spark (2.3)作业,特别是HDP3.1和CDH6 (测试版)

是否可以在hadoop3集群上运行Spark (2.3)作业,特别是HDP3.1和CDH6 (测试版)
EN

Stack Overflow用户
提问于 2018-09-30 19:44:34
回答 1查看 372关注 0票数 2

另外,CDH 6还处于测试阶段,他们是否支持spark 2.3而没有任何花哨的东西?是否可以在支持Hadoop3的CDH或hadoop集群上运行相同的旧spark 2.x版本(特别是2.3)?

我很想知道yarn,hdfs和mapreduce API的向后兼容性变化。

有没有人在生产中使用这个?

EN

回答 1

Stack Overflow用户

发布于 2018-10-01 03:14:08

CDH 6.0正式发布于几周前。除了Hadoop3之外,它还打包了Spark 2.2作为默认的Spark版本:https://www.cloudera.com/documentation/enterprise/6/release-notes/topics/rg_cdh_600_new_features.html#spark_new_features。但是,可以单独将CDS升级到更高版本(2.3.x)。

根据https://www.cloudera.com/documentation/spark2/latest/topics/spark2_troubleshooting.html#spark_troubleshooting__hive_compatibility的说法,在Spark中,CDH6似乎不受HMS不兼容的影响。

票数 1
EN
页面原文内容由Stack Overflow提供。腾讯云小微IT领域专用引擎提供翻译支持
原文链接:

https://stackoverflow.com/questions/52577564

复制
相关文章

相似问题

领券
问题归档专栏文章快讯文章归档关键词归档开发者手册归档开发者手册 Section 归档