首页
学习
活动
专区
圈层
工具
发布
社区首页 >问答首页 >将数据流式传输到德尔塔湖,读取过滤结果

将数据流式传输到德尔塔湖,读取过滤结果
EN

Stack Overflow用户
提问于 2020-10-16 18:47:02
回答 1查看 129关注 0票数 0

我的目标是不断地将传入的拼图文件放入delta-lake,进行查询,并将结果放入Rest API中。所有文件都在s3存储桶中。

代码语言:javascript
复制
//listen for changes
val df = spark.readStream().parquet("s3a://myBucket/folder")

//write changes to delta lake
df.writeStream()
    .format("delta")
    .option("checkpointLocation", "s3a://myBucket-processed/checkpoint")
    .start("s3a://myBucket-processed/")
    .awaitTermination() //this call lives in another thread (because it's blocking)

//this is a bad example
val query = df.select(convertedColumnNames) 
query.show()

//another bad example:
spark.readStream().format("delta").load("s3a://myBucket-processed/").select(convertedColumnNames).show()

//org.apache.spark.sql.AnalysisException: Queries with streaming sources must be executed with writeStream.start();;

我怎样才能从德尔塔湖得到过滤后的数据?

EN

回答 1

Stack Overflow用户

发布于 2020-10-17 07:42:03

您是否尝试过使用foreachBatch

它为流媒体带来了所有的批处理功能,你也可以在一定程度上控制你正在写入delta的文件的数量。

票数 1
EN
页面原文内容由Stack Overflow提供。腾讯云小微IT领域专用引擎提供翻译支持
原文链接:

https://stackoverflow.com/questions/64387698

复制
相关文章

相似问题

领券
问题归档专栏文章快讯文章归档关键词归档开发者手册归档开发者手册 Section 归档