首页
学习
活动
专区
圈层
工具
发布
社区首页 >问答首页 >为什么Spark2只在一个节点上运行?

为什么Spark2只在一个节点上运行?
EN

Stack Overflow用户
提问于 2017-11-24 21:52:24
回答 1查看 213关注 0票数 0

我在齐柏林飞艇上运行Spark2 (在HDP2.6中是0.7),并且我正在做一个idf转换,它在很多小时后崩溃。它运行在一个集群上,有一个主节点和3个数据节点: s1、s2和s3。所有节点都有一个Spark2客户端,每个节点都有8个内核和16 RAM内存。

我只是注意到它只在一个节点上运行,s3,有5个执行器。

在zeppelin-env.sh中,我将zeppelin.executor.instances设置为32,将zeppelin.executor.mem设置为12g,并显示以下代码:

代码语言:javascript
复制
export MASTER=yarn-client

我已经将yarn.resourcemanager.scheduler.class设置为org.apache.hadoop.yarn.server.resourcemanager.scheduler.fair.FairScheduler

我还在Spark2解释器中将spark.executor.instances设置为32。

任何人都有什么想法,我可以尝试让其他节点做他们的共享?

EN

回答 1

Stack Overflow用户

发布于 2017-11-25 04:15:53

答案是因为我是个笨蛋。只有S3安装了数据节点和节点管理器。希望这能帮助到一些人。

票数 1
EN
页面原文内容由Stack Overflow提供。腾讯云小微IT领域专用引擎提供翻译支持
原文链接:

https://stackoverflow.com/questions/47474746

复制
相关文章

相似问题

领券
问题归档专栏文章快讯文章归档关键词归档开发者手册归档开发者手册 Section 归档