首页
学习
活动
专区
圈层
工具
发布
社区首页 >问答首页 >无法启动beeline客户端

无法启动beeline客户端
EN

Stack Overflow用户
提问于 2015-12-26 11:18:00
回答 2查看 2.7K关注 0票数 0

我安装了spark -1.5.1-bin- from hadoop,并尝试从spark安装目录中使用以下命令启动beeline。./bin/beeline我得到“错误:无法找到或加载主类org.apache.hive.beeline.BeeLine”。

EN

回答 2

Stack Overflow用户

发布于 2016-04-27 02:49:23

不确定类路径不工作的原因。我遇到了同样的问题,最终在lib_managed目录下使用jars运行java。请注意,使用verbose选项是因为在某些NoClassDef情况下不会显示错误。

代码语言:javascript
复制
java -cp lib_managed/jars/hive-exec-1.2.1.spark.jar:lib_managed/jars/hive-metastore-1.2.1.spark.jar:lib_managed/jars/httpcore-4.3.1.jar:lib_managed/jars/httpclient-4.3.2.jar:lib_managed/jars/libthrift-0.9.2.jar:lib_managed/jars/hive-beeline-1.2.1.spark.jar:lib_managed/jars/jline-2.12.jar:lib_managed/jars/commons-cli-1.2.jar:lib_managed/jars/super-csv-2.2.0.jar:lib_managed/jars/commons-logging-1.1.3.jar:lib_managed/jars/hive-jdbc-1.2.1.spark.jar:lib_managed/jars/hive-cli-1.2.1.spark.jar:lib_managed/jars/hive-service-1.2.1.spark.jar:assembly/target/scala-2.10/spark-assembly-1.5.3-SNAPSHOT-hadoop2.2.0.jar org.apache.hive.beeline.BeeLine -u jdbc:hive2://<thrift server public address>:10000/default --verbose=true
票数 1
EN

Stack Overflow用户

发布于 2017-06-16 20:39:39

我也有同样的问题。对我来说,设置SPARK_HOME环境变量就做到了!

代码语言:javascript
复制
export SPARK_HOME=/Users/../Downloads/spark-2.1.1-bin-hadoop2.7

这是因为如果你实际打开并看到"bin/beeline“脚本文件,你会发现这一行:

确定SPARK_HOME是否设置为

因此,在将SPARK_HOME设置到适当的位置后,beeline开始正常工作。

票数 0
EN
页面原文内容由Stack Overflow提供。腾讯云小微IT领域专用引擎提供翻译支持
原文链接:

https://stackoverflow.com/questions/34468202

复制
相关文章

相似问题

领券
问题归档专栏文章快讯文章归档关键词归档开发者手册归档开发者手册 Section 归档