首页
学习
活动
专区
圈层
工具
发布
社区首页 >问答首页 >如何指定spark-submit使用的Python版本?

如何指定spark-submit使用的Python版本?
EN

Stack Overflow用户
提问于 2015-05-01 00:02:59
回答 4查看 35.9K关注 0票数 34

我有两个版本的Python。当我使用spark-submit启动spark应用程序时,该应用程序使用默认版本的Python。但是,我想用另一个。如何指定spark-submit使用的Python版本?

EN

回答 4

Stack Overflow用户

发布于 2015-05-01 00:15:33

您可以将conf/spark-env.sh (位于Spark的安装目录)中的Python变量设置为所需Python可执行文件的绝对路径。

Spark分布默认包含spark-env.sh.template (Windows上的spark-env.cmd.template)。必须先将其重命名为spark-env.sh (spark-env.cmd)。

例如,如果Python可执行文件安装在/opt/anaconda3/bin/python3

代码语言:javascript
复制
PYSPARK_PYTHON='/opt/anaconda3/bin/python3'

有关更多信息,请查看configuration documentation

票数 23
EN

Stack Overflow用户

发布于 2016-07-13 10:36:17

在我的环境中,我简单地使用

代码语言:javascript
复制
export PYSPARK_PYTHON=python2.7

这对我很管用

票数 13
EN

Stack Overflow用户

发布于 2019-11-12 19:33:57

如果要在spark-submit命令行中指定选项PYSPARK_MAJOR_PYTHON_VERSION,则应检查以下内容:

http://spark.apache.org/docs/latest/running-on-kubernetes.html

您可以在此页面中搜索spark.kubernetes.pyspark.pythonVersion,您将找到以下内容:

代码语言:javascript
复制
spark.kubernetes.pyspark.pythonVersion  "2" This sets the major Python version of the docker image used to run the driver and executor containers. Can either be 2 or 3.

现在,您的命令应该如下所示:

代码语言:javascript
复制
spark-submit --conf spark.kubernetes.pyspark.pythonVersion=3 ...

应该能行得通。

票数 0
EN
页面原文内容由Stack Overflow提供。腾讯云小微IT领域专用引擎提供翻译支持
原文链接:

https://stackoverflow.com/questions/29972565

复制
相关文章

相似问题

领券
问题归档专栏文章快讯文章归档关键词归档开发者手册归档开发者手册 Section 归档