首页
学习
活动
专区
圈层
工具
发布
社区首页 >问答首页 >Spark和Metastore关系

Spark和Metastore关系
EN

Stack Overflow用户
提问于 2017-09-21 22:39:07
回答 1查看 1.6K关注 0票数 4

我知道Hive Metastore用于存储我们在HIVE中创建的表的元数据,但是为什么spark需要Metastore,Metastore和Spark之间的默认关系是什么

spark SQL是否正在使用元存储?如果是,这是否用于存储数据帧元数据?

为什么即使iam没有使用任何sql库,spark by defaults也会检查元存储区连接?

EN

回答 1

Stack Overflow用户

发布于 2017-09-21 22:57:54

以下是来自spark-2.2.0 documentation的解释

当不是由hive-site.xml配置时,上下文自动在当前目录中创建仓库,并创建由spark.sql.warehouse.dir配置的目录,该目录默认为启动Spark应用程序的当前目录中的目录Spark- metastore_db。请注意,从Spark 2.0.0开始,hive-site.xml中的hive.metastore.warehouse.dir属性就被弃用了。相反,使用spark.sql.warehouse.dir来指定数据库在仓库中的默认位置。

票数 1
EN
页面原文内容由Stack Overflow提供。腾讯云小微IT领域专用引擎提供翻译支持
原文链接:

https://stackoverflow.com/questions/46346867

复制
相关文章

相似问题

领券
问题归档专栏文章快讯文章归档关键词归档开发者手册归档开发者手册 Section 归档