首页
学习
活动
专区
圈层
工具
发布
社区首页 >问答首页 >在airflow中,是否可以在多个工作节点上运行单个任务,即以分布式方式运行任务

在airflow中,是否可以在多个工作节点上运行单个任务,即以分布式方式运行任务
EN

Stack Overflow用户
提问于 2021-11-23 12:18:51
回答 1查看 104关注 0票数 0

我正在使用spring batch创建批处理作业的工作流。单个批处理作业需要2小时才能完成(要处理的数据约为100万),因此决定以分布式方式运行,其中一个任务将分布在多个工作节点上,这样它就可以在较短的时间内执行。工作流中的其他作业(都是分布式的)需要一个接一个地按顺序运行。作业是多节点分布式作业(主/从架构),需要一个接一个地运行。

现在,我正在考虑在airflow上部署工作流。因此,在探索时,我找不到任何方法来运行分布在多台机器上的单个任务。这在气流中是可能的吗?

EN

回答 1

Stack Overflow用户

回答已采纳

发布于 2021-11-23 16:03:44

可以,您可以使用Spark框架创建任务。Spark允许您以分布式方式处理多个节点上的数据。

然后,您可以使用SparkSubmitOperator在DAG中对齐任务。

票数 1
EN
页面原文内容由Stack Overflow提供。腾讯云小微IT领域专用引擎提供翻译支持
原文链接:

https://stackoverflow.com/questions/70080791

复制
相关文章

相似问题

领券
问题归档专栏文章快讯文章归档关键词归档开发者手册归档开发者手册 Section 归档