首页
学习
活动
专区
圈层
工具
发布
社区首页 >问答首页 >Spark安装内存问题

Spark安装内存问题
EN

Stack Overflow用户
提问于 2014-11-26 23:05:25
回答 2查看 1.8K关注 0票数 0

这个问题已经被问到了,但我仍然面临着问题。

代码语言:javascript
复制
hduser@sanjeebpanda-VirtualBox:/usr/local/spark$ sbt/sbt assembly

使用/usr/lib/jvm/java-7-openjdk-i386作为默认JAVA_HOME。

注意,如果设置了-java-home,它将被覆盖。

代码语言:javascript
复制
Error occurred during initialization of VM
Could not reserve enough space for object heap
Error: Could not create the Java Virtual Machine.
Error: A fatal exception has occurred. Program will exit.

致敬Sanjeeb

EN

回答 2

Stack Overflow用户

发布于 2015-01-05 14:30:00

错误消息似乎是说机器上没有足够的内存来分配必要的java堆空间。

我将检查~/.sbtconfig以查看Xmx和Xms的值设置为什么,并尝试降低这些值。尽管这些是默认设置,但它可能会给您带来其他问题。

最好的解决方案是使用另一台具有更大可用内存的机器。

干杯

票数 0
EN

Stack Overflow用户

发布于 2015-05-30 05:40:07

好吧,我在安装Spark的时候也遇到了同样的问题。在设置了_JAVA_OPTIONS之后,它就可以工作了。

以下是我所使用的。根据您的机器更改内存大小:

代码语言:javascript
复制
export _JAVA_OPTIONS='-Xmx128M -Xmx256M'
票数 0
EN
页面原文内容由Stack Overflow提供。腾讯云小微IT领域专用引擎提供翻译支持
原文链接:

https://stackoverflow.com/questions/27152429

复制
相关文章

相似问题

领券
问题归档专栏文章快讯文章归档关键词归档开发者手册归档开发者手册 Section 归档