我是新来的。现在,我想使用spark读取一些数据,并将其写入hive定义的表中。我正在使用spark3 3.3.1和Hadoop3.3.2,现在我可以一起下载hive3和配置spark3了吗?因为我在网上找到的一些材料告诉我,星星之火不能适用于所有版本的蜂箱
谢谢
发布于 2022-03-05 10:40:21
从Spark3.2.1文档来看,它与Hive3.1.0兼容,如果火花和蜂箱的版本可以修改,我建议您首先使用上面提到的组合。
发布于 2022-11-07 06:11:49
我试图将hive 3.1.2和spark 3.2.1集成在一起。火花3:https://github.com/forsre/hive3.1.2有一个蜂箱叉
你可以用它来重新编译星星之火3的蜂巢,而星火上的蜂箱也可以工作。
但是星火节约服务器与hive 3是不兼容的。Apache被建议取代星火节约服务器和hiveserver2。
您可以使用标准的hive 3.1.2和spart 3.2.1包和kyuubi 1.6.0来使它们工作。
https://stackoverflow.com/questions/71359983
复制相似问题