首页
学习
活动
专区
圈层
工具
发布
社区首页 >问答首页 >Java Spark spilling in-memory map OutOfMemoryError错误

Java Spark spilling in-memory map OutOfMemoryError错误
EN

Stack Overflow用户
提问于 2015-06-19 15:04:12
回答 1查看 1.4K关注 0票数 2

我正在运行以下代码(a包含大约10000行):

代码语言:javascript
复制
IndexedRowMatrix qTmp = new IndexedRowMatrix(a.rows());
IndexedRowMatrix qTmpT = qTmp.toCoordinateMatrix().transpose().toIndexedRowMatrix();

我得到以下错误:

代码语言:javascript
复制
15/06/19 10:08:52 INFO ExternalAppendOnlyMap: Thread 66 spilling in-memory map of 24.8 MB to disk (1 time so far)
15/06/19 10:08:54 INFO ExternalAppendOnlyMap: Thread 66 spilling in-memory map of 24.8 MB to disk (2 times so far)
15/06/19 10:08:57 INFO ExternalAppendOnlyMap: Thread 66 spilling in-memory map of 24.8 MB to disk (3 times so far)
15/06/19 10:09:02 ERROR Executor: Exception in task 0.0 in stage 9.0 (TID 9)
java.lang.OutOfMemoryError: Java heap space

我也尝试过用各种参数调优内存:

代码语言:javascript
复制
SparkConf conf = new SparkConf();
conf.set("spark.serializer", "org.apache.spark.serializer.KryoSerializer");
conf.setAppName("test");
conf.setMaster("local[2]");
conf.set("spark.executor.memory", "6g");
conf.set("spark.driver.maxResultSize", "1g");
conf.set("spark.shuffle.spill", "false");
conf.set("spark.storage.memoryFraction", "0.3");
conf.set("spark.eventLog.enabled", "false");
conf.set("driver-memory", "4g")`;
JavaSparkContext sc = new JavaSparkContext(conf);

有没有什么原因让我一直收到这个溢出错误?

EN

回答 1

Stack Overflow用户

发布于 2015-06-19 15:18:39

您应该使用覆盖的java选项运行您的应用程序。

使用-Xms=size -Xmx -XX:MaxPermSize=size -XX:MaxNewSize=size启动程序

例如:

-Xms512m -Xmx1152m -XX:MaxPermSize=256m -XX:MaxNewSize=256m

票数 1
EN
页面原文内容由Stack Overflow提供。腾讯云小微IT领域专用引擎提供翻译支持
原文链接:

https://stackoverflow.com/questions/30931976

复制
相关文章

相似问题

领券
问题归档专栏文章快讯文章归档关键词归档开发者手册归档开发者手册 Section 归档