首页
学习
活动
专区
圈层
工具
发布
社区首页 >问答首页 >spark-shell在Apache spark中抛出错误

spark-shell在Apache spark中抛出错误
EN

Stack Overflow用户
提问于 2016-07-26 06:01:46
回答 1查看 498关注 0票数 0

我已经安装了hadoop on ubuntu on virtual box(host os Windows7).I还安装了Apache spark,在.bashrc中配置了SPARK_HOME,并将HADOOP_CONF_DIR添加到了spark-env.sh中。现在,当我启动spark-shell时,它抛出了错误,并且没有初始化spark context,sql context。我是不是在安装中遗漏了什么,而且我想在集群上运行它(设置了Hadoop3节点集群)。

EN

回答 1

Stack Overflow用户

发布于 2019-05-26 23:29:24

当我尝试在Windows 7上安装Spark local时也遇到了同样的问题。请确保以下路径正确无误,我确信我将与您一起工作。我在这个link中回答了同样的问题,所以,你可以遵循下面的步骤,它会起作用的。

  • 创建JAVA_HOME变量: C:\Program Files\Java\jdk1.8.0_181\bin
  • Add以下部分到您的路径:;%JAVA_HOME%\bin
  • Create JAVA_HOME SPARK_HOME variable: Program以下部分到您的路径:;%SPARK_HOME%\bin
  • The最重要的部分C:\Hadoop
  • Add路径应在winutils.ee之前包含bin文件,如下所示: C:\ Hadoop \bin确保您将在此路径中找到winutils.exe。
  • 创建HADOOP_HOME变量:Hadoop将以下部分添加到您的路径中:C:\Hadoop
  • Add

现在您可以运行cmd并编写spark-shell,它将会工作。

票数 0
EN
页面原文内容由Stack Overflow提供。腾讯云小微IT领域专用引擎提供翻译支持
原文链接:

https://stackoverflow.com/questions/38578099

复制
相关文章

相似问题

领券
问题归档专栏文章快讯文章归档关键词归档开发者手册归档开发者手册 Section 归档