我有一些数据存储在S3中。我需要定期将这些数据从S3克隆/复制到Redshift集群。要执行海量复制,我可以使用copy命令从S3复制到红移。
同样,是否有任何简单的方法可以定期将数据从S3复制到Redshift。
谢谢
发布于 2016-07-29 19:27:28
尝试使用AWS数据管道,该数据管道具有用于将数据从一个AWS服务移动到另一个服务的各种模板。"Load data from S3 into Redshift“模板将数据从亚马逊S3文件夹复制到Redshift表中。您可以将数据加载到现有表中,也可以提供SQL查询来创建表。红移表必须与亚马逊S3中的数据具有相同的架构。
数据管道支持管道按计划运行。您有一个用于调度的cron样式编辑器
发布于 2019-09-05 12:53:08
AWS Lambda Redshift Loader是一个很好的解决方案,每当一个新文件出现在亚马逊S3上预先配置的位置时,它就会在Redshift上运行一个复制命令。
链接:
https://aws.amazon.com/blogs/big-data/a-zero-administration-amazon-redshift-database-loader/ https://github.com/awslabs/aws-lambda-redshift-loader
发布于 2019-07-30 00:42:21
我相信Kinesis Firehose是完成此任务的最简单方法。只需创建一个Kinesis Forehose流,将其指向Redshift集群中的特定表,将数据写入流,完成:)
完整的设置步骤如下:https://docs.aws.amazon.com/ses/latest/DeveloperGuide/event-publishing-redshift-firehose-stream.html
https://stackoverflow.com/questions/38654865
复制相似问题