我正在尝试使用cloud dataflow runner从我的beam管道中读取bigquery中的数据。我想提供一个凭证来访问该项目。
我在Java中见过示例,但在Python中没有见过。
我发现唯一的可能性是使用:--service_account_email参数,但如果我想在所有选项中的代码中给出.json键信息怎么办: google_cloud_options.service_account = '/path/ to /credential.json‘
options = PipelineOptions(flags=argv)
google_cloud_options = options.view_as(GoogleCloudOptions)
google_cloud_options.project = 'project_name'
google_cloud_options.job_name = 'job_name'
google_cloud_options.staging_location = 'gs://bucket'
google_cloud_options.temp_location = 'gs://bucket'
options.view_as(StandardOptions).runner = 'DataflowRunner'
with beam.Pipeline(options=options) as pipeline:
query = open('query.sql', 'r')
bq_source = beam.io.BigQuerySource(query=query.read(), use_standard_sql=True)
main_table = \
pipeline \
| 'ReadAccountViewAll' >> beam.io.Read(bq_source) \Java有一个方法getGcpCredential,但是在Python中找不到...
有什么想法吗?
发布于 2020-04-24 02:05:51
正如前面提到的here,--service_account_email是推荐的方法。不建议下载密钥并将其存储在本地或GCE上。
发布于 2020-05-14 04:12:13
对于需要在代码中为json文件使用不同路径的情况,您可以尝试以下python Authentication解决方法:
client = Client.from_service_account_json('/path/to/keyfile.json')或
client = Client(credentials=credentials)Here是一个从文件创建自定义凭据的示例:
credentials = service_account.Credentials.from_service_account_file(
key_path,
scopes=["https://www.googleapis.com/auth/cloud-platform"],
)https://stackoverflow.com/questions/61393299
复制相似问题