首页
学习
活动
专区
圈层
工具
发布
社区首页 >问答首页 >运行spark时发生堆错误?

运行spark时发生堆错误?
EN

Stack Overflow用户
提问于 2015-12-08 15:34:33
回答 2查看 1.1K关注 0票数 1

我试图在我的Ubuntu终端上运行spark,但我得到了以下错误

代码语言:javascript
复制
$Using /usr/lib/jvm/java-7-oracle as default JAVA_HOME.
$Note, this will be overridden by -java-home if it is set.
$Picked up _JAVA_OPTIONS: -Xmx10M -Xms2048M
$Error occurred during initialization of VM
$Incompatible minimum and maximum heap sizes specified

请帮忙,提前谢谢。

EN

回答 2

Stack Overflow用户

发布于 2015-12-08 15:37:54

-Xmx10M -Xms2048M

第一个参数是最大堆大小,第二个参数是您设置的起始大小。Max应该比start更大。

票数 3
EN

Stack Overflow用户

发布于 2015-12-08 16:11:37

-Xms-Xmx参数分别定义最小和最大堆大小。您为-Xmx设置了较小的值,而为-Xms设置了较大的值,这是无效的组合。

为了更好地理解,请看一下oracle的这篇vmoptions文章。

票数 0
EN
页面原文内容由Stack Overflow提供。腾讯云小微IT领域专用引擎提供翻译支持
原文链接:

https://stackoverflow.com/questions/34150355

复制
相关文章

相似问题

领券
问题归档专栏文章快讯文章归档关键词归档开发者手册归档开发者手册 Section 归档