首页
学习
活动
专区
圈层
工具
发布
社区首页 >问答首页 >spark已启动,目录正在工作,但spark-shell未获得lanuch获取错误'spark-shell‘不可识别

spark已启动,目录正在工作,但spark-shell未获得lanuch获取错误'spark-shell‘不可识别
EN

Stack Overflow用户
提问于 2019-11-06 00:07:39
回答 1查看 45关注 0票数 0

我已经按照指示做了所有的事情,但是仍然不能启动cmd screenshot

dir正在工作

我已经按照指示放置了所有下载的文件,但spark-shell不起作用。

C:\Users\admin>cd c:\spark

驱动器C中的c:\spark>dir卷没有标签。卷序列号为BCEB-22EE

c:\spark目录

2019-11-05 05:19 PM2019-11-05 05:19 PM ..2019年11月5日04:59 PM 230,091,034 spark-2.4.4-bin-hadoop2.7.tgz 1文件230,091,034字节2目录180,582,641,664字节可用

c:\spark>spark-shell 'spark-shell‘未被识别为内部或外部命令、可操作程序或批处理文件。

C:\Users\admin>cd c:\spark

驱动器C中的c:\spark>dir卷没有标签。卷序列号为BCEB-22EE

c:\spark目录

2019-11-05 05:19 PM2019-11-05 05:19 PM ..2019年11月5日04:59 PM 230,091,034 spark-2.4.4-bin-hadoop2.7.tgz 1文件230,091,034字节2目录180,582,641,664字节可用

c:\spark>spark-shell 'spark-shell‘未被识别为内部或外部命令、可操作程序或批处理文件。cmd image

EN

回答 1

Stack Overflow用户

发布于 2019-11-06 01:35:29

提取spark-2.4.4-bin-hadoop2.7.tgz.的内容的

  1. (可以使用winzip?)
  2. 这将产生一个目录,可能类似于winzip在该目录中,将有一个名为 bin cd的
  3. 。在该目录中,您将找到spark-shell脚本
票数 0
EN
页面原文内容由Stack Overflow提供。腾讯云小微IT领域专用引擎提供翻译支持
原文链接:

https://stackoverflow.com/questions/58715245

复制
相关文章

相似问题

领券
问题归档专栏文章快讯文章归档关键词归档开发者手册归档开发者手册 Section 归档