首页
学习
活动
专区
圈层
工具
发布
社区首页 >问答首页 >Spark-shell不工作

Spark-shell不工作
EN

Stack Overflow用户
提问于 2018-02-14 19:14:03
回答 2查看 2.8K关注 0票数 2

当我提交spark-shell命令时,我看到以下错误:

代码语言:javascript
复制
# spark-shell

> SPARK_MAJOR_VERSION is set to 2, using Spark2
  File "/usr/bin/hdp-select", line 249
    print "Packages:"
                    ^
SyntaxError: Missing parentheses in call to 'print'. Did you mean print(t "Packages:")?
ls: cannot access /usr/hdp//hadoop/lib: No such file or directory
Exception in thread "main" java.lang.IllegalStateException: hdp.version is not set while running Spark under HDP, please set through HDP_VERSION in spark-env.sh or add a java-opts file in conf with -Dhdp.version=xxx
        at org.apache.spark.launcher.Main.main(Main.java:118)
EN

回答 2

Stack Overflow用户

发布于 2018-02-27 17:10:50

问题是HDP脚本/usr/bin/hdp-select显然是在Python3下运行的,而它包含不兼容的Python2特定代码。

您可以通过以下方式将/usr/bin/hdp- Python3连接到select:

"list(package).sort()")

  • replacing statements

  • replacing "os.mkdir(current,0755)“by "os.mkdir(current,0o755)"

将括号添加到打印"packages.sort()”行

您还可以尝试强制HDP在Python2下运行/usr/bin/hdp-select:

代码语言:javascript
复制
PYSPARK_DRIVER_PYTHON=python2 PYSPARK_PYTHON=python2 spark-shell
票数 2
EN

Stack Overflow用户

发布于 2021-04-29 21:19:11

我也有同样的问题:我在运行spark之前设置了HDP_VERSION

代码语言:javascript
复制
export HDP_VERSION=<your hadoop version>

spark-shell
票数 0
EN
页面原文内容由Stack Overflow提供。腾讯云小微IT领域专用引擎提供翻译支持
原文链接:

https://stackoverflow.com/questions/48785823

复制
相关文章

相似问题

领券
问题归档专栏文章快讯文章归档关键词归档开发者手册归档开发者手册 Section 归档