首页
学习
活动
专区
圈层
工具
发布
社区首页 >问答首页 >云数据流作业的调度

云数据流作业的调度
EN

Stack Overflow用户
提问于 2022-12-02 09:30:20
回答 2查看 30关注 0票数 0

所以,我已经完成了在Dataflow中创建一个工作。此工作处理ETL从PostgreSQL到BigQuery。所以,我不知道用气流来做调度。如何利用气流来共享作业数据流?

谢谢

EN

回答 2

Stack Overflow用户

发布于 2022-12-02 10:08:21

您可以使用云调度器 (完全托管cron作业调度程序)/ 云作曲家 (构建在Airflow上的完全托管工作流编排服务)来调度数据流批处理作业。

要使用Cloud进行调度,请参阅用云调度程序调度数据流批处理作业

要使用Composer进行计划,请参阅使用DataflowTemplateOperator用Composer启动数据流管道

有关使用Java/Python在气流中运行数据流作业的示例和更多方法,请参阅谷歌云数据流运营商

票数 1
EN

Stack Overflow用户

发布于 2022-12-02 10:10:18

Airflow DAG中,可以使用schedule_interval param定义cron和调度:

代码语言:javascript
复制
with airflow.DAG(
        my_dag,
        default_args=args,
        schedule_interval="5 3 * * *"

    # Trigger Dataflow job with an operator
    launch_dataflow_job = BeamRunPythonPipelineOperator(
        runner='DataflowRunner',
        py_file=python_main_file,
        task_id='launch_dataflow_job',
        pipeline_options=dataflow_job_options,
        py_system_site_packages=False,
        py_interpreter='python3',
        dataflow_config=DataflowConfiguration(
            location='region'
        )
    )

    launch_dataflow_job
    ......
票数 1
EN
页面原文内容由Stack Overflow提供。腾讯云小微IT领域专用引擎提供翻译支持
原文链接:

https://stackoverflow.com/questions/74653520

复制
相关文章

相似问题

领券
问题归档专栏文章快讯文章归档关键词归档开发者手册归档开发者手册 Section 归档