首页
学习
活动
专区
圈层
工具
发布
社区首页 >问答首页 >运行Spark App: Persist

运行Spark App: Persist
EN

Stack Overflow用户
提问于 2017-07-26 23:56:33
回答 1查看 119关注 0票数 0

我正在开发一个同样使用SparkSQL并使用dataframe.write.saveAsTable(tbl)保存数据的Spark2.1应用程序。我的理解是内存中的Derby DB用于Hive元存储(对吗?)。这意味着我在第一次执行时创建的表在任何后续执行中都不可用。在许多情况下,这可能是预期的行为-但我希望在执行过程中保持metastore (因为这也是我的生产系统中的行为)。

因此,有一个简单的问题:如何更改配置以在磁盘上持久化元存储?

需要注意的是:我并不是使用spark-shell或spark-submit来启动Spark作业,而是将其作为一个独立的Scala应用程序。

EN

回答 1

Stack Overflow用户

回答已采纳

发布于 2017-07-27 00:36:09

它已经持久化在磁盘上。只要两个会话使用相同的工作目录或特定的元存储配置,永久表就会在会话之间保持不变。

票数 -1
EN
页面原文内容由Stack Overflow提供。腾讯云小微IT领域专用引擎提供翻译支持
原文链接:

https://stackoverflow.com/questions/45331969

复制
相关文章

相似问题

领券
问题归档专栏文章快讯文章归档关键词归档开发者手册归档开发者手册 Section 归档