首页
学习
活动
专区
圈层
工具
发布
社区首页 >问答首页 >PySpark,Win10 -系统找不到指定的路径

PySpark,Win10 -系统找不到指定的路径
EN

Stack Overflow用户
提问于 2018-10-09 17:04:25
回答 2查看 2.7K关注 0票数 4

我以前通过pip安装了PySpark包,最近我用一个干净的Python版本卸载了它,并下载了独立版本。

在我的用户变量中,我创建了一个名为: SPARK_HOME的路径

值为:C:\spark 2.3.2-bin-hadoop2.7\bin

在Path下的系统变量中,我输入了一个条目:C:\spark 2.3.2-bin-hadoop2.7\bin

当我运行火星雨

我也跑不了火花弹。有什么想法吗?

EN

回答 2

Stack Overflow用户

回答已采纳

发布于 2018-10-09 17:25:04

SPARK_HOME应该没有bin文件夹。因此,

SPARK_HOME设置为C:\spark-2.3.2-bin-hadoop2.7\

票数 3
EN

Stack Overflow用户

发布于 2019-06-21 07:52:44

窗口用户必须下载一个兼容的winutils exe版本,并将其保存在Spark的bin文件夹中。

找到兼容的Hadoop发行版,下载并保存在您的Spark文件夹中。

下载"https://github.com/steveloughran/winutils/blob/master/hadoop-2.7.1/bin/winutils.exe“并将其保存在”C:\spark 2.3.2-bin-hadoop2.7\bin“中。

在这个链接中可以找到不同的winutils版本。https://github.com/steveloughran/winutils

票数 2
EN
页面原文内容由Stack Overflow提供。腾讯云小微IT领域专用引擎提供翻译支持
原文链接:

https://stackoverflow.com/questions/52726043

复制
相关文章

相似问题

领券
问题归档专栏文章快讯文章归档关键词归档开发者手册归档开发者手册 Section 归档