首页
学习
活动
专区
圈层
工具
发布
社区首页 >问答首页 >Spark Local vs Cluster

Spark Local vs Cluster
EN

Stack Overflow用户
提问于 2018-09-12 18:54:30
回答 2查看 104关注 0票数 0

Spark集群相当于standalone的localN是什么?我的意思是,我们将local的参数值设置为N,哪个参数在集群模式下接受它?

EN

回答 2

Stack Overflow用户

发布于 2018-09-12 18:58:59

In local[N] - N是在任何时间点上节点中可以使用的最大核心数。

在集群模式下,您可以设置--executor-cores N。这意味着每个executor可以在一个executor中同时运行最多的N任务。

票数 0
EN

Stack Overflow用户

发布于 2018-09-12 20:21:22

集群模式中,一个executor将在一个worker节点上运行,这意味着一个executor将占用worker节点上的所有核心。这可能会导致资源利用不足。请记住,驱动程序也会占用一个工作节点。

票数 0
EN
页面原文内容由Stack Overflow提供。腾讯云小微IT领域专用引擎提供翻译支持
原文链接:

https://stackoverflow.com/questions/52293448

复制
相关文章

相似问题

领券
问题归档专栏文章快讯文章归档关键词归档开发者手册归档开发者手册 Section 归档