首页
学习
活动
专区
圈层
工具
发布
社区首页 >问答首页 >如何在spark-shell (spark 2.1.1)中启用对spark的配置单元支持

如何在spark-shell (spark 2.1.1)中启用对spark的配置单元支持
EN

Stack Overflow用户
提问于 2017-10-25 09:04:41
回答 1查看 6.6K关注 0票数 2

我正在尝试在spark-shell中启用对spark对象的Hive支持,但它不起作用。我使用的是Hortonworks HDP。以下是我尝试启用配置单元支持时得到的结果:

代码语言:javascript
复制
scala> val spark3 = SparkSession.builder.enableHiveSupport.getOrCreate
17/10/24 21:30:28 WARN SparkSession$Builder: Using an existing SparkSession; some configuration may not take effect.
spark3: org.apache.spark.sql.SparkSession = org.apache.spark.sql.SparkSession@22f8be7c

scala> spark3.catalog
res3: org.apache.spark.sql.catalog.Catalog = org.apache.spark.sql.internal.CatalogImpl@49c13ecd
EN

回答 1

Stack Overflow用户

发布于 2017-10-25 09:12:23

在HDP中,spark-shell已经创建了一个具有配置单元支持的有效SparkSession。

您收到警告,说getOrCreate使用了现有的会话

你可以试试

代码语言:javascript
复制
spark.sql("show tables").show()

此外,您使用的是spark而不是spark3,因此除了该对象的toString信息之外,不清楚spark.catalog还会向您显示哪些信息

票数 3
EN
页面原文内容由Stack Overflow提供。腾讯云小微IT领域专用引擎提供翻译支持
原文链接:

https://stackoverflow.com/questions/46922306

复制
相关文章

相似问题

领券
问题归档专栏文章快讯文章归档关键词归档开发者手册归档开发者手册 Section 归档