我希望有hadoop和其他几个新版本的软件包,这是目前的ambari与HDP2.6.3允许的。
这种单一组件的版本升级有选择吗?
发布于 2018-01-19 04:02:47
此功能在Ambari 3.0之前不会准备就绪。请参阅AMBARI-18678和AMBARI-14714
不过,根据你想升级的内容,我不建议你这么做。
例如,HBase、Hive和Spark还不支持Hadoop3.0。HDP的流媒体组件,如Spark,Kafka,NiFi似乎更频繁地发布版本,并且在Ambari之外有方法来升级这些。
您不需要HDP或Ambari来管理您的Hadoop,但它确实为集群提供了一个很好的软件包和集中管理组件。如果你自己升级组件,你会冒着不兼容的风险。
HDP作为一个整体进行了测试。您在Ambari中设置的Hortonworks存储库限制了您可以使用的组件版本,但这并不能阻止您使用自己的存储库以及Puppet/Chef在您的Hadoop环境中安装其他软件。在这一点上,您唯一失去的就是来自Ambari的管理和配置。
您可以尝试定义自己的Ambari Mpack来安装其他软件,但请确保您有足够的资源来维护它。
发布于 2018-01-19 02:52:58
在Hortonworks文档中详细记录了Ambari升级步骤,您可以按照以下链接升级Ambari + Hadoop组件
所有2.6版本的包urls都可以在下面获得
您可以使用yum或apt- -include或其他包管理器进行单个组件( HDFS和YARN、HIVE、OOZIE等)升级,但由于依赖问题,不建议在Hadoop集群中升级单个组件-服务有时可能会失败,因此最好完成HDP堆栈升级,而不是升级单个组件。
此外,您还需要在hortonworks文档中检查Amabari版本兼容性,如果您计划仅升级Hadoop核心包而不升级Ambari,其他宽群集监控可能会失败
https://stackoverflow.com/questions/48324016
复制相似问题