首页
学习
活动
专区
圈层
工具
发布
社区首页 >问答首页 >修复spark结构流中的检查点问题

修复spark结构流中的检查点问题
EN

Stack Overflow用户
提问于 2018-05-05 02:01:45
回答 1查看 2.2K关注 0票数 3

当spark找不到_spark_metadata文件夹中的文件时,我在生产中遇到了检查点问题

代码语言:javascript
复制
18/05/04 16:59:55 INFO FileStreamSinkLog: Set the compact interval to 10 [defaultCompactInterval: 10]
18/05/04 16:59:55 INFO DelegatingS3FileSystem: Getting file status for 's3u://data-bucket-prod/data/internal/_spark_metadata/19.compact'
18/05/04 16:59:55 ERROR FileFormatWriter: Aborting job null.
java.lang.IllegalStateException: s3u://data-bucket-prod/data/internal/_spark_metadata/19.compact doesn't exist when compacting batch 29 (compactInterval: 10)

已经有了question asked,但目前还没有解决方案。

在checkpointing文件夹中,我看到batch 29还没有提交,所以我可以从checkpointing的sourcesstate和/或offsets中删除一些东西,以防止spark因为缺少_spark_metadata/19.compact文件而失败吗?

EN

回答 1

Stack Overflow用户

发布于 2018-06-14 06:32:12

问题是您正在将检查点存储到S3。S3中的检查点并不是100%可靠的。要了解S3不可靠的确切原因,请阅读this article

解决方案1:使用HDFS存储检查点

解决方案2:如果您想使用Amazon Web Services,请使用EFS。The above article详细提供了设置EFS的所有步骤。

解决方案3:使用NFS

票数 3
EN
页面原文内容由Stack Overflow提供。腾讯云小微IT领域专用引擎提供翻译支持
原文链接:

https://stackoverflow.com/questions/50180725

复制
相关文章

相似问题

领券
问题归档专栏文章快讯文章归档关键词归档开发者手册归档开发者手册 Section 归档