首页
学习
活动
专区
圈层
工具
发布
社区首页 >问答首页 >Spark / Hdfs /Hdfs-客户端兼容性

Spark / Hdfs /Hdfs-客户端兼容性
EN

Stack Overflow用户
提问于 2020-07-06 10:06:48
回答 1查看 91关注 0票数 0

我正在运行一个基于hdfs集群的hdfs版本2.9.1。这个集群由Spark (针对hdfs客户端2.9.1构建)和使用hdfs 2.9.1的独立scala/java程序使用。

我想逐步升级安装到hdfs 3..而不会破坏太多。我还没有找到一个关于hdfs服务器和hdfs客户机之间兼容性的平易近人的指南。

是否可以先升级hdfs客户端,然后升级hdfs文件系统?还是反过来?

EN

回答 1

Stack Overflow用户

发布于 2020-07-11 23:10:30

这取决于您使用的API。Hadoop类和接口被归类为带有注释的1 ( StableEvolvingUnstableDeprecated )。

Stable API的使用是安全的,因为它在Hadoop4.0.0 2之前是不会被删除的。

票数 0
EN
页面原文内容由Stack Overflow提供。腾讯云小微IT领域专用引擎提供翻译支持
原文链接:

https://stackoverflow.com/questions/62753744

复制
相关文章

相似问题

领券
问题归档专栏文章快讯文章归档关键词归档开发者手册归档开发者手册 Section 归档