我有一个由几个(持久的和临时的) EMR Spark集群组成的生产环境。
我希望使用spark-jobserver的一个实例来管理此环境的一般作业master,并且能够在我POST /jobs时指定目标JAR,而不是永久地在配置文件中(使用master = "local[4]"配置密钥)。
显然,我更喜欢在一台独立的机器上运行spark-jobserver,而不是在任何masters上。
这有没有可能呢?
发布于 2016-02-05 01:00:04
您可以编写SparkMasterProvider
我认为你所要做的就是编写一个将config输入作为spark master返回的代码,这样你就可以将它作为job config的一部分进行传递。
https://stackoverflow.com/questions/35206700
复制相似问题