首页
学习
活动
专区
圈层
工具
发布
社区首页 >问答首页 >Amazon Redshift COPY with transformation

Amazon Redshift COPY with transformation
EN

Stack Overflow用户
提问于 2014-11-07 00:30:00
回答 1查看 1.4K关注 0票数 0

Redshift有一个复制操作,允许您将文件从S3复制到Redshift (http://docs.aws.amazon.com/redshift/latest/dg/r_COPY.html)中。

我的问题是,我是否需要将新清理过的.json文件写回S3,然后从这些清理过的文件中执行复制,或者有没有办法在复制过程中通过这种转换来运行?

EN

回答 1

Stack Overflow用户

发布于 2014-11-09 02:53:54

@tommy

复制操作只允许几个简单的转换,如日期时间格式更改、空占位符等。

要广泛清理数据,您可能需要编写自己的程序并将结果转储回S3,然后才能将其复制到redshift中。

如果您的数据很小,您可以使用AWS SDK (有Java、PHP和Python版本)编写一个简单的程序来执行ETL并将其加载到redshift中。

在我们的示例中,数据非常庞大(每天约4亿行),因此,我们使用Amazon EMR、HIVE和SerDe (JSON)编解码器来创建逻辑配置单元表,使用HQL应用转换,并将清理后的结果以制表符分隔文件的形式转储回S3。然后,我们使用标准的COPY命令将结果加载到redshift中。我们还使用Amazon Data Pipeline来编排和自动化此工作流程。

例如。配置单元脚本

代码语言:javascript
复制
add jar s3://elasticmapreduce/samples/hive-ads/libs/jsonserde.jar; --SerDe codec

CREATE EXTERNAL TABLE  source_table_name (column_a string, column_b date)  row format 
    serde 'com.amazon.elasticmapreduce.JsonSerde'
    with serdeproperties ( 
      'paths'='column_a, column_b'
   ) LOCATION   's3a://your-bucket-name/source-directory-path/';

CREATE EXTERNAL TABLE  dest_table_name (column_a string, column_b date) ROW FORMAT DELIMITED FIELDS TERMINATED BY '\t'  LOCATION 's3n://your-bucket-name/dest-directory-path/';

INSERT INTO dest_table_name select * from source_table_name;

当然,上面显示的示例只是重新格式化了数据。您可能需要根据您的用例添加额外的转换。

希望这能有所帮助。

票数 7
EN
页面原文内容由Stack Overflow提供。腾讯云小微IT领域专用引擎提供翻译支持
原文链接:

https://stackoverflow.com/questions/26784476

复制
相关文章

相似问题

领券
问题归档专栏文章快讯文章归档关键词归档开发者手册归档开发者手册 Section 归档