首页
学习
活动
专区
圈层
工具
发布
社区首页 >问答首页 >流插入以及随后在数据流管道中定期合并到BigQuery中。

流插入以及随后在数据流管道中定期合并到BigQuery中。
EN

Stack Overflow用户
提问于 2021-12-02 11:21:23
回答 2查看 223关注 0票数 1

在构建数据流管道时,它是一种有效的方法吗?它的目的是将BigQuery中的最新数据按键存储到

table

  • periodically流--将已分区的暂存合并(update/insert)中的事件插入目标表中(以便只存储到键的最新数据)。合并必须每2-5分钟进行一次,并尊重暂存表中的所有行。

这种方法的思想取自Google项目https://github.com/GoogleCloudPlatform/DataflowTemplateshttps://github.com/GoogleCloudPlatform/DataflowTemplates

到目前为止,它在我们的测试中运行良好,这里的问题来自于这样一个事实: Google在其文档中声明:

“最近使用流( tabledata.insertall方法或存储写入API)写入表的行不能用UPDATE、DELETE或MERGE语句进行修改。”https://cloud.google.com/bigquery/docs/reference/standard-sql/data-manipulation-language#limitations

是否有人在生产数据流管道中走了这条路,并取得了稳定的积极结果?

EN

回答 2

Stack Overflow用户

发布于 2021-12-02 15:56:31

经过几个小时的思考,我想我可以回答我自己的问题:因为我只流到暂存表并合并到目标表中,所以这种方法非常好。

票数 1
EN

Stack Overflow用户

发布于 2021-12-03 03:06:47

我昨天就这么做了,时差在15-45分钟左右。如果您有一个摄取时间列/字段,您可以使用它来限制您正在进行UPDATE的行。

票数 0
EN
页面原文内容由Stack Overflow提供。腾讯云小微IT领域专用引擎提供翻译支持
原文链接:

https://stackoverflow.com/questions/70198500

复制
相关文章

相似问题

领券
问题归档专栏文章快讯文章归档关键词归档开发者手册归档开发者手册 Section 归档