我正在运行一个基于hdfs集群的hdfs版本2.9.1。这个集群由Spark (针对hdfs客户端2.9.1构建)和使用hdfs 2.9.1的独立scala/java程序使用。
我想逐步升级安装到hdfs 3..而不会破坏太多。我还没有找到一个关于hdfs服务器和hdfs客户机之间兼容性的平易近人的指南。
是否可以先升级hdfs客户端,然后升级hdfs文件系统?还是反过来?
发布于 2020-07-11 23:10:30
这取决于您使用的API。Hadoop类和接口被归类为带有注释的1 ( Stable、Evolving、Unstable、Deprecated )。
Stable
Evolving
Unstable
Deprecated
Stable API的使用是安全的,因为它在Hadoop4.0.0 2之前是不会被删除的。
https://stackoverflow.com/questions/62753744
相似问题