首页
学习
活动
专区
圈层
工具
发布
社区首页 >问答首页 >在Spark中是否可以在同一个SparkSession上运行并发作业?

在Spark中是否可以在同一个SparkSession上运行并发作业?
EN

Stack Overflow用户
提问于 2019-12-03 03:00:42
回答 1查看 143关注 0票数 1

我是一个业余的Spark用户和Scala。虽然我找了很多次,但还是找不到答案。是否可以在单个驱动程序中同时将不同的任务分配给不同的执行器?例如,假设我们有10个节点。我想要编写一个代码,使用具有五个工作者的朴素贝叶斯算法对数据集进行分类,同时,我想给其他五个工作者分配一个任务,使用决策树算法对数据集进行分类。然后,我将综合这些答案。

EN

回答 1

Stack Overflow用户

发布于 2019-12-03 07:05:05

HamidReza,

您想要实现的是从您的驱动程序并行运行两个操作。这绝对是可能的,但只有当您的操作没有使用整个集群时才有意义(实际上是为了更好的资源管理)。

为此,您可以使用并发。实现并发程序的方法有很多种,从Futures开始(我不推荐使用这种方法,但似乎是Scala中最流行的选择),再到更高级的类型,比如任务(你可以看看流行的函数库,比如MonixCatsZio)。

票数 2
EN
页面原文内容由Stack Overflow提供。腾讯云小微IT领域专用引擎提供翻译支持
原文链接:

https://stackoverflow.com/questions/59145147

复制
相关文章

相似问题

领券
问题归档专栏文章快讯文章归档关键词归档开发者手册归档开发者手册 Section 归档