首页
学习
活动
专区
圈层
工具
发布
社区首页 >问答首页 >星火2.2.0的SPARK_WORKER_INSTANCES

星火2.2.0的SPARK_WORKER_INSTANCES
EN

Stack Overflow用户
提问于 2017-07-25 14:59:51
回答 2查看 2K关注 0票数 2

在Spark2.2.0中,我没有看到在每个节点上启动多个工作人员的选项SPARK_WORKER_INSTANCES。我该怎么做?

EN

回答 2

Stack Overflow用户

回答已采纳

发布于 2017-07-25 15:37:57

如果您查看spark-env.sh文件夹的conf目录中的spark文件,您将看到一个选项SPARK_WORKER_INSTANCES=1。你可以把它改成你想要的号码。

因此,当火花用sbin/start-all.sh启动时,应该在该机器上启动定义的工作节点数。

票数 2
EN

Stack Overflow用户

发布于 2017-07-25 15:13:44

根据星火文档

要用启动脚本启动一个Spark独立集群,您应该在Spark目录中创建一个名为conf/ scripts的文件,该文件必须包含所有要启动火花工作者的机器的主机名,每行一个。如果不存在conf/从服务器,则启动脚本默认为一台计算机(localhost),这对于测试非常有用。

票数 0
EN
页面原文内容由Stack Overflow提供。腾讯云小微IT领域专用引擎提供翻译支持
原文链接:

https://stackoverflow.com/questions/45307001

复制
相关文章

相似问题

领券
问题归档专栏文章快讯文章归档关键词归档开发者手册归档开发者手册 Section 归档