首页
学习
活动
专区
圈层
工具
发布
社区首页 >问答首页 >访问Spark.SQL

访问Spark.SQL
EN

Stack Overflow用户
提问于 2017-03-01 07:06:46
回答 3查看 135关注 0票数 1

我是Spark的新手。按照书中的以下示例,我发现下面的命令给出了错误。在Spark中编写代码时,运行Spark-SQL命令的最佳方式是什么?

代码语言:javascript
复制
scala> // Use SQL to create another DataFrame containing the account
summary records
scala> val acSummary = spark.sql("SELECT accNo, sum(tranAmount) as TransTotal FROM trans GROUP BY accNo")
<console>:37: error: not found: value spark

我尝试导入导入org.apache.spark.SparkContext或使用sc对象,但没有成功。

EN

回答 3

Stack Overflow用户

发布于 2017-03-01 11:23:37

假设您在spark-shell中,那么首先获取sql上下文,如下所示:

代码语言:javascript
复制
val sqlContext = new org.apache.spark.sql.SQLContext(sc)

然后您可以执行以下操作:

代码语言:javascript
复制
val acSummary = sqlContext.sql("SELECT accNo, sum(tranAmount) as TransTotal FROM trans GROUP BY accNo")
票数 1
EN

Stack Overflow用户

发布于 2017-03-01 07:16:50

因此,spark-shell中可用的值spark实际上是SparkSession (https://spark.apache.org/docs/2.0.2/api/scala/index.html#org.apache.spark.sql.SparkSession)的一个实例

代码语言:javascript
复制
val spark = SparkSession.builder().getOrCreate()

会给你一个。

票数 0
EN

Stack Overflow用户

发布于 2017-03-01 08:26:46

您使用的是什么版本?看起来你在shell中,这应该可以工作,但只能在Spark 2+中使用-否则你必须使用sqlContext.sql

票数 0
EN
页面原文内容由Stack Overflow提供。腾讯云小微IT领域专用引擎提供翻译支持
原文链接:

https://stackoverflow.com/questions/42520426

复制
相关文章

相似问题

领券
问题归档专栏文章快讯文章归档关键词归档开发者手册归档开发者手册 Section 归档