首页
学习
活动
专区
圈层
工具
发布
社区首页 >问答首页 >为什么spark num-executors不等于纱线容器?

为什么spark num-executors不等于纱线容器?
EN

Stack Overflow用户
提问于 2019-04-03 09:10:10
回答 1查看 164关注 0票数 1

根据[Spark on YARN resource manager: Relation between YARN Containers and Spark Executors,纱线容器的数量应该等于spark应用程序的执行器数量。然而,在一次运行中,我确实看到Spark-UI环境选项卡中显示的num-executors是60个,但yarn中显示的容器数量只有37个。我使用的是spark 2.2,spark.dynamicAllocation.enabled设置为false。我使用Azure-HDinsight集群。有人能解释这个吗?

EN

回答 1

Stack Overflow用户

发布于 2019-04-03 09:16:21

Spark-UI还显示了一些已终止的执行器。它们可能已被Spark动态执行或纱线抢占移除。通常,您可以判断executors是否还活着。

它们不同的另一个原因是Spark driver。在“纱线集群”模式下,驱动程序也占用纱线容器。所以在这种情况下,你也会看到+1容器的差异。

票数 0
EN
页面原文内容由Stack Overflow提供。腾讯云小微IT领域专用引擎提供翻译支持
原文链接:

https://stackoverflow.com/questions/55485605

复制
相关文章

相似问题

领券
问题归档专栏文章快讯文章归档关键词归档开发者手册归档开发者手册 Section 归档