首页
学习
活动
专区
圈层
工具
发布
社区首页 >问答首页 >Spark-shell Git Bash

Spark-shell Git Bash
EN

Stack Overflow用户
提问于 2018-11-17 07:29:31
回答 2查看 961关注 0票数 2

我不能让spark-shell命令在Git bash上工作。我非常确定我的环境设置正确,就像我在命令提示符下的任何目录中运行spark-shell一样,它对我来说工作得很好。

但是,当我在bash中运行spark-shell时,它会输出这个值,而不是运行实际的shell:

代码语言:javascript
复制
"C:\Program Files\Java\jdk1.8.0_191\bin\java" -cp "C:\spark\spark-2.4.0-bin- 
hadoop2.7/conf\;C:\spark\spark-2.4.0-bin-hadoop2.7\jars\*" "- 
Dscala.usejavacp=true"-Xmx1g org.apache.spark.deploy.SparkSubmit --class 
org.apache.spark.repl.Main --name "Spark shell" spark-shell
EN

回答 2

Stack Overflow用户

发布于 2018-11-17 15:44:48

在git bash中,尝试使用:

  • 简单引号' (而不是双引号")
  • /而不是\C:/.../.../c/.../...

这将与Git bash使用的shell更兼容。

票数 0
EN

Stack Overflow用户

发布于 2020-01-30 04:44:26

然后以RUN=($( spark-shell )) && "${RUN[@]}"用户身份运行

票数 0
EN
页面原文内容由Stack Overflow提供。腾讯云小微IT领域专用引擎提供翻译支持
原文链接:

https://stackoverflow.com/questions/53346696

复制
相关文章

相似问题

领券
问题归档专栏文章快讯文章归档关键词归档开发者手册归档开发者手册 Section 归档