首页
学习
活动
专区
圈层
工具
发布
社区首页 >问答首页 >定期将S3存储桶中的数据流式传输到红移

定期将S3存储桶中的数据流式传输到红移
EN

Stack Overflow用户
提问于 2016-07-29 17:09:52
回答 5查看 2.9K关注 0票数 1

我有一些数据存储在S3中。我需要定期将这些数据从S3克隆/复制到Redshift集群。要执行海量复制,我可以使用copy命令从S3复制到红移。

同样,是否有任何简单的方法可以定期将数据从S3复制到Redshift。

谢谢

EN

回答 5

Stack Overflow用户

发布于 2016-07-29 19:27:28

尝试使用AWS数据管道,该数据管道具有用于将数据从一个AWS服务移动到另一个服务的各种模板。"Load data from S3 into Redshift“模板将数据从亚马逊S3文件夹复制到Redshift表中。您可以将数据加载到现有表中,也可以提供SQL查询来创建表。红移表必须与亚马逊S3中的数据具有相同的架构。

数据管道支持管道按计划运行。您有一个用于调度的cron样式编辑器

票数 2
EN

Stack Overflow用户

发布于 2019-09-05 12:53:08

AWS Lambda Redshift Loader是一个很好的解决方案,每当一个新文件出现在亚马逊S3上预先配置的位置时,它就会在Redshift上运行一个复制命令。

链接:

https://aws.amazon.com/blogs/big-data/a-zero-administration-amazon-redshift-database-loader/ https://github.com/awslabs/aws-lambda-redshift-loader

票数 2
EN

Stack Overflow用户

发布于 2019-07-30 00:42:21

我相信Kinesis Firehose是完成此任务的最简单方法。只需创建一个Kinesis Forehose流,将其指向Redshift集群中的特定表,将数据写入流,完成:)

完整的设置步骤如下:https://docs.aws.amazon.com/ses/latest/DeveloperGuide/event-publishing-redshift-firehose-stream.html

票数 1
EN
页面原文内容由Stack Overflow提供。腾讯云小微IT领域专用引擎提供翻译支持
原文链接:

https://stackoverflow.com/questions/38654865

复制
相关文章

相似问题

领券
问题归档专栏文章快讯文章归档关键词归档开发者手册归档开发者手册 Section 归档