首页
学习
活动
专区
圈层
工具
发布
社区首页 >问答首页 >spark-jobserver管理多个EMR集群

spark-jobserver管理多个EMR集群
EN

Stack Overflow用户
提问于 2016-02-05 00:43:40
回答 1查看 137关注 0票数 0

我有一个由几个(持久的和临时的) EMR Spark集群组成的生产环境。

我希望使用spark-jobserver的一个实例来管理此环境的一般作业master,并且能够在我POST /jobs时指定目标JAR,而不是永久地在配置文件中(使用master = "local[4]"配置密钥)。

显然,我更喜欢在一台独立的机器上运行spark-jobserver,而不是在任何masters上。

这有没有可能呢?

EN

回答 1

Stack Overflow用户

发布于 2016-02-05 01:00:04

您可以编写SparkMasterProvider

https://github.com/spark-jobserver/spark-jobserver/blob/master/job-server/src/spark.jobserver/util/SparkMasterProvider.scala

这里有一个复杂的例子https://github.com/spark-jobserver/jobserver-cassandra/blob/master/src/main/scala/spark.jobserver/masterLocators/dse/DseSparkMasterProvider.scala

我认为你所要做的就是编写一个将config输入作为spark master返回的代码,这样你就可以将它作为job config的一部分进行传递。

票数 0
EN
页面原文内容由Stack Overflow提供。腾讯云小微IT领域专用引擎提供翻译支持
原文链接:

https://stackoverflow.com/questions/35206700

复制
相关文章

相似问题

领券
问题归档专栏文章快讯文章归档关键词归档开发者手册归档开发者手册 Section 归档