首页
学习
活动
专区
圈层
工具
发布
社区首页 >问答首页 >如何在Windows 7 64位上安装Spark2.1.0?

如何在Windows 7 64位上安装Spark2.1.0?
EN

Stack Overflow用户
提问于 2017-04-14 17:01:01
回答 2查看 4.1K关注 0票数 0

我在Windows 7 64位上,并跟随这个博客安装Spark2.1.0。

因此,我试图从https://github.com/apache/sparkC:\spark-2.1.0中克隆的资源构建Spark。

当我运行sbt assemblysbt -J-Xms2048m -J-Xmx2048m assembly时,我得到:

代码语言:javascript
复制
[info] Loading project definition from C:\spark-2.1.0\project
[info] Compiling 3 Scala sources to C:\spark-2.1.0\project\target\scala-2.10\sbt-0.13\classes...
java.lang.StackOverflowError
at java.security.AccessController.doPrivileged(Native Method)
at java.io.PrintWriter.<init>(Unknown Source)
at java.io.PrintWriter.<init>(Unknown Source)
at scala.reflect.api.Printers$class.render(Printers.scala:168)
at scala.reflect.api.Universe.render(Universe.scala:59)
at scala.reflect.api.Printers$class.show(Printers.scala:190)
at scala.reflect.api.Universe.show(Universe.scala:59)
at scala.reflect.api.Printers$class.treeToString(Printers.scala:182)
...

我按照建议调整了sbt的内存设置,这些设置无论如何都被忽略了。有什么想法吗?

EN

回答 2

Stack Overflow用户

回答已采纳

发布于 2017-04-15 10:37:44

这篇链接的博客帖子是“2015年4月29日发布的”,现在已经两岁了,现在只应该阅读它来了解事情是如何变化的(我甚至不打算链接这篇博文来停止将人们引导到这个网站)。

2017年在Windows上安装Spark的方法如下:

  1. http://spark.apache.org/downloads.html下载火花。
  2. 阅读从下载中开始的正式文档。

就这样。

在Windows上安装Spark

众所周知,由于Hadoop的需求,Windows会给您带来问题(而Spark确实在幕后使用Hadoop)。

您必须安装可以在winutils存储库中找到的https://github.com/steveloughran/winutils二进制文件。

提示:您应该选择Spark发行版编译的Hadoop版本,例如将hadoop-2.7.1用于Spark2.1.0。

winutils.exe二进制文件保存到您选择的目录中,例如c:\hadoop\bin并定义HADOOP_HOME以包含c:\hadoop

有关进一步步骤,请参见在Windows上运行Spark应用程序

票数 2
EN

Stack Overflow用户

发布于 2017-04-15 07:43:48

以下设置适用于我(sbtconfig.txt):

代码语言:javascript
复制
# Set the java args to high

-Xmx1024M

-XX:MaxPermSize=2048m

-Xss2M

-XX:ReservedCodeCacheSize=128m

# Set the extra SBT options

-Dsbt.log.format=true
票数 0
EN
页面原文内容由Stack Overflow提供。腾讯云小微IT领域专用引擎提供翻译支持
原文链接:

https://stackoverflow.com/questions/43415917

复制
相关文章

相似问题

领券
问题归档专栏文章快讯文章归档关键词归档开发者手册归档开发者手册 Section 归档