我可以写入拼图格式,并按如下所示的列进行分区:
jobname = args['JOB_NAME']
#header is a spark DataFrame
header.repartition(1).write.parquet('s3://bucket/aws-glue/{}/header/'.format(jobname), 'append', partitionBy='date')但是我不能用Glue的DynamicFrame做到这一点。
header_tmp = DynamicFrame.fromDF(header, glueContext, "header")
glueContext.write_dynamic_frame.from_options(frame = header_tmp, connection_type = "s3", connection_options = {"path": 's3://bucket/output/header/'}, format = "parquet")我尝试过将partitionBy作为connection_options dict的一部分传递,因为亚马逊网络服务文档说拼花胶水不支持任何格式选项,但这不起作用。
这是可能的吗?如何实现?至于这样做的原因,我认为这是工作书签工作的需要,因为这对我来说是不起作用的。
发布于 2018-03-19 06:57:55
来自AWS支持(转述一下):
到目前为止,Glue在写入拼图时不支持partitionBy参数。不过,这项工作仍在进行中。
要将作业书签功能与S3源代码一起使用,需要使用Glue API来写入parquet。
因此,到今天为止,还不能对拼图文件进行分区并启用作业书签功能。
编辑:我在documentations找到了今天(3/23/18)
glue_context.write_dynamic_frame.from_options(
frame = projectedEvents,
connection_options = {"path": "$outpath", "partitionKeys": ["type"]},
format = "parquet")这个选项可能一直存在,而我和AWS支持人员都忽略了它,或者它是最近才添加的。无论哪种方式,现在看起来都是可能的。
发布于 2020-01-17 06:42:31
我使用我的dataframe中的一些列作为partionkeys对象:
glueContext.write_dynamic_frame \
.from_options(
frame = some_dynamic_dataframe,
connection_type = "s3",
connection_options = {"path":"some_path", "partitionKeys": ["month", "day"]},
format = "parquet")https://stackoverflow.com/questions/49141713
复制相似问题