首页
学习
活动
专区
圈层
工具
发布
社区首页 >问答首页 >如何将星火与HiveContext结合使用

如何将星火与HiveContext结合使用
EN

Stack Overflow用户
提问于 2016-03-23 17:36:27
回答 1查看 4.9K关注 0票数 0

我刚开始使用spark.I中的HiveContext来访问窗口functions.But。

代码语言:javascript
复制
import org.apache.spark.sql.hive.HiveContext

我得到以下错误:

错误:对象单元不是包org.apache.spark.sql的成员

我发现了需要在build.sbt文件中包含以下依赖项的解决方案。

代码语言:javascript
复制
libraryDependencies += "org.apache.spark" %% "spark-hive" % "1.5.2

但我不知道,我应该在哪里找到这个build.sbt文件,

代码语言:javascript
复制
/home/cloudera/spark-1.5.2/build/sbt

(或)

代码语言:javascript
复制
/home/cloudera/spark-1.5.2/sbt/sbt

(或)

代码语言:javascript
复制
/home/cloudera/spark-1.5.2/project/plugins.sbt

请帮助我在build.sbt文件中添加依赖项。

EN

回答 1

Stack Overflow用户

发布于 2016-03-23 18:40:28

要用Hive支持构建Spark,不需要对构建定义进行任何更改。只要确保激活所需的配置文件即可。

  • Maven mvn -Phive -Phive-thriftserver -DskipTests .清洁包装
  • SBT 建立/sbt -Phive -Phive-thriftserver .组件

只有在构建自己的项目时,才需要将spark-hive添加为依赖项。

另外,请不要认为预置(spark-[SPARK-VERSION]-bin-hadoop[HADOOP-VERSION].tgz文件)二进制文件可以从火花下载页面已经建立了蜂巢支持。

票数 2
EN
页面原文内容由Stack Overflow提供。腾讯云小微IT领域专用引擎提供翻译支持
原文链接:

https://stackoverflow.com/questions/36185027

复制
相关文章

相似问题

领券
问题归档专栏文章快讯文章归档关键词归档开发者手册归档开发者手册 Section 归档