我有一个HDP集群,其中安装了2.6.0.3。在其中一个没有连接到Ambari的网关节点上,我安装了hdp堆栈。在安装过程中,我安装了spark2。到目前为止一切都很好。但是当我查看它的时候,我没有发现其中有任何python或pyspark包吗?我必须单独安装它们吗?为什么pyspark包没有从HDP2.6.0.3-8堆栈安装spark2?
发布于 2020-02-27 04:50:53
如果第一次安装没有在spark2中安装python。你必须单独做这件事。首先使用命令'yum search spark2‘检查,你会看到一些包含python的包的列表。获取python包名称并执行'yum install python_ package _ name‘。它将在/usr/hdp/2.6.3.0-8/spark2/文件夹下安装python。
https://stackoverflow.com/questions/60402524
复制相似问题