首页
学习
活动
专区
圈层
工具
发布
社区首页 >问答首页 >DataProcPySparkOperator集群区域与区域问题

DataProcPySparkOperator集群区域与区域问题
EN

Stack Overflow用户
提问于 2018-05-02 11:56:18
回答 1查看 881关注 0票数 0

关于使用DataProcPySparkOperator的问题。下面是我在DAG中添加的任务:

代码语言:javascript
复制
run_pyspark_job= DataProcPySparkOperator(
    task_id='pyspark_operator_test',
    main='/root/airflow/dags/basic_eda.py',
    job_name='test_pyspark_job',
    cluster_name='test-cluster-20180502',
    gcp_conn_id='google_cloud_default',
    region='global',
    zone='us-central1-b'
)

出现以下错误:

projects/project_id/regions/global/clusters/cluster-1“:googleapiclient.errors.HttpError:id/regions/global/jobs:submit?alt=json返回"Not :集群”

它没有指向正确的集群。

请给我建议一下我遗漏了什么?

EN

回答 1

Stack Overflow用户

回答已采纳

发布于 2018-05-03 11:25:14

在1.9气流中改变了参数。为了指定集群id,使用了dataproc_cluster参数,该参数在1.9中更改为cluster_name

因此,如果您使用airflow<=‘1.8.2’,那么使用dataproc_cluster来指定cluster_id ('test-cluster-20180502')。

检查:https://github.com/apache/incubator-airflow/blob/master/UPDATING.md#deprecated-features

票数 3
EN
页面原文内容由Stack Overflow提供。腾讯云小微IT领域专用引擎提供翻译支持
原文链接:

https://stackoverflow.com/questions/50134110

复制
相关文章

相似问题

领券
问题归档专栏文章快讯文章归档关键词归档开发者手册归档开发者手册 Section 归档