首页
学习
活动
专区
圈层
工具
发布
社区首页 >问答首页 >是否有可能在hadoop集群中混合不同的RHEL版本?

是否有可能在hadoop集群中混合不同的RHEL版本?
EN

Server Fault用户
提问于 2019-11-20 19:48:12
回答 1查看 191关注 0票数 0

我们使用的是安巴里的HDP集群,

节点列表及其RHEL版本

代码语言:javascript
复制
3 masters machines ( with namenode & resource manager ) , installed on RHEL 7.2

312 DATA-NODES machines , installed on RHEL 7.2

5 kafka machines , installed on RHEL 7.2

现在,我们希望将以下机器添加到集群中,但使用RHEL7.5

代码语言:javascript
复制
85 DATA-NODES machines , should be installed on RHEL 7.5 version

2 kafka brokers machines , should be installed on RHEL 7.5 version

所以我的问题是

我们能混合在HDP集群RHEL7.2和RHEL7.5版本吗?

EN

回答 1

Server Fault用户

回答已采纳

发布于 2019-11-20 21:47:19

RHEL小版本,例如7.5,包含“数百”包裹,每隔几个月发布一次,被支持了几个月。基本上,带有大部分修复程序的服务包。希望每年升级几次,作为修补程序的一部分。

只有在一个小版本上停留一段很长的时间,并有特定的原因。

应用程序有时在其先决条件中定义特定版本。在这种情况下,Hadoop主要只需要Java

因此,默认情况下,要将软件更新应用到集群中。可能会进行滚动升级。

票数 0
EN
页面原文内容由Server Fault提供。腾讯云小微IT领域专用引擎提供翻译支持
原文链接:

https://serverfault.com/questions/992639

复制
相关文章

相似问题

领券
问题归档专栏文章快讯文章归档关键词归档开发者手册归档开发者手册 Section 归档