首页
学习
活动
专区
圈层
工具
发布
社区首页 >问答首页 >Hive托管表拖放不会删除HDFS上的文件。有什么解决办法吗?

Hive托管表拖放不会删除HDFS上的文件。有什么解决办法吗?
EN

Stack Overflow用户
提问于 2019-03-18 12:43:35
回答 2查看 3.2K关注 0票数 3

当从单元中删除托管表时,hdfs中的相关文件不会被删除(在azure-databricks上)。我得到了以下错误:

SimbaSparkJDBCDriver错误处理查询/语句。错误代码: 0,SQL状态: org.apache.spark.sql.AnalysisException:无法创建托管表(‘schema.XXXXX’)。关联的location('dbfs:/user/hive/warehouse/schema.db/XXXXX)已经存在。

这个问题时断时续地发生。想办法解决这个问题。

EN

回答 2

Stack Overflow用户

发布于 2019-04-24 10:29:45

我已经开始想办法了。去年的情况很好,但我认为存储附件正在发生一些事情。也许在后台正在进行的增强会导致问题(PaaS!)作为一种保障措施,我将手动删除直接路径,并删除表,直到我能够得到对正在发生的事情的合理解释或得到支持呼叫应答。

使用

代码语言:javascript
复制
dbutils.fs.rm("dbfs:/user/hive/warehouse/schema.db/XXXXX", true)

尽管如此,还是有足够的时间!如果这条路走错了,那将是一场悲剧!

票数 2
EN

Stack Overflow用户

发布于 2022-03-11 16:57:30

因此,有时元数据( Hive表的模式信息)本身就会损坏。因此,每当我们尝试删除/删除表时,我们就会得到错误,在删除之前,启动对表是否存在的检查。

如果我们使用hive删除表,我们就可以避免这种情况,因为它避免了检查表的存在。

请参阅这个神奇的数据库文档

票数 0
EN
页面原文内容由Stack Overflow提供。腾讯云小微IT领域专用引擎提供翻译支持
原文链接:

https://stackoverflow.com/questions/55221690

复制
相关文章

相似问题

领券
问题归档专栏文章快讯文章归档关键词归档开发者手册归档开发者手册 Section 归档