首页
学习
活动
专区
圈层
工具
发布
社区首页 >问答首页 >设置spark vm选项

设置spark vm选项
EN

Stack Overflow用户
提问于 2018-03-22 01:53:34
回答 1查看 1.6K关注 0票数 1

我正在尝试构建一个使用zookeeper和kafka的spark应用程序。Maven用于构建。我正在尝试构建的项目是here。在执行时:

代码语言:javascript
复制
mvn clean package exec:java -Dexec.mainClass="com.iot.video.app.spark.processor.VideoStreamProcessor"

它显示了

代码语言:javascript
复制
ERROR SparkContext:91 - Error initializing SparkContext.
java.lang.IllegalArgumentException: System memory 253427712 must be at least 471859200. Please increase heap size using the --driver-memory option or spark.driver.memory in Spark configuration.

我尝试将spark.driver.memory 4g添加到spark-defaults.conf中,但仍然收到错误。我怎么才能修复它?

EN

回答 1

Stack Overflow用户

发布于 2018-03-22 04:04:29

您可以通过使用专用的spark-submit参数向您的工作人员发送额外的JVM选项:

代码语言:javascript
复制
spark-submit --conf 'spark.executor.memory=1g'\
      --conf 'spark.executor.extraJavaOptions=-Xms1024m -Xmx4096m'

类似地,您可以为您的驱动程序设置选项(如果您的应用程序以集群模式提交,或者通过spark-submit启动,则非常有用):

代码语言:javascript
复制
--conf 'spark.driver.extraJavaOptions=-Xms512m -Xmx2048m'
票数 0
EN
页面原文内容由Stack Overflow提供。腾讯云小微IT领域专用引擎提供翻译支持
原文链接:

https://stackoverflow.com/questions/49413454

复制
相关文章

相似问题

领券
问题归档专栏文章快讯文章归档关键词归档开发者手册归档开发者手册 Section 归档