这是我的代码。writeStream正在以“拼接”格式写入记录,而不是“增量”格式,尽管我提到了增量格式。
spark
.readStream
.format("delta")
.option("latestFirst","true")
.option("ignoreDeletes", "true")
.option("ignoreChanges","true")
.load("/mnt/data-lake/data/bronze/accounts")
.writeStream
.format("delta")
.outputMode("append")
.option("checkpointLocation","/mnt/data-lake/tmp/chkpnt_accounts_inserts")
.option("path","/mnt/data-lake/tmp/accounts_inserts")
.start()发布于 2020-02-06 12:31:01
根据原帖的评论分享答案。
_delta_log目录中没有“增量格式”,而是带有事务日志的拼图。如果存在此目录,您可能会使用增量格式。
我在我们给出的" delta“格式中提到了delta。我知道它仍然是镶木地板的格式。然而,我的问题在下一次运行中得到了解决,并且创建了_delta_log目录。
https://stackoverflow.com/questions/59675471
复制相似问题