我的团队正在尝试使用Redshift来整合来自几个不同数据库的信息。在实现此解决方案的第一次尝试中,我们使用Kinesis将帖子记录写入API到S3中,然后发出一个COPY命令将插入的数据写入Redshift中的正确表。但是,这只允许我们插入新数据,并且不允许我们转换数据、更改时更新行或删除行。
在Redshift中不使用批处理转换维护更新的数据仓库的最佳方法是什么?理想情况下,当本地数据库中的数据被更改时,我们希望“自动”(< 5分钟)发生更新。
发布于 2016-03-30 01:14:50
作为实时插入红移的通用参考体系结构,请查看以下内容:https://blogs.aws.amazon.com/bigdata/post/Tx2ANLN1PGELDJU/Best-Practices-for-Micro-Batch-Loading-on-Amazon-Redshift
这已经实现了多次,并且运行良好。
https://stackoverflow.com/questions/36295614
复制相似问题