我安装了spark -1.5.1-bin- from hadoop,并尝试从spark安装目录中使用以下命令启动beeline。./bin/beeline我得到“错误:无法找到或加载主类org.apache.hive.beeline.BeeLine”。
发布于 2016-04-27 02:49:23
不确定类路径不工作的原因。我遇到了同样的问题,最终在lib_managed目录下使用jars运行java。请注意,使用verbose选项是因为在某些NoClassDef情况下不会显示错误。
java -cp lib_managed/jars/hive-exec-1.2.1.spark.jar:lib_managed/jars/hive-metastore-1.2.1.spark.jar:lib_managed/jars/httpcore-4.3.1.jar:lib_managed/jars/httpclient-4.3.2.jar:lib_managed/jars/libthrift-0.9.2.jar:lib_managed/jars/hive-beeline-1.2.1.spark.jar:lib_managed/jars/jline-2.12.jar:lib_managed/jars/commons-cli-1.2.jar:lib_managed/jars/super-csv-2.2.0.jar:lib_managed/jars/commons-logging-1.1.3.jar:lib_managed/jars/hive-jdbc-1.2.1.spark.jar:lib_managed/jars/hive-cli-1.2.1.spark.jar:lib_managed/jars/hive-service-1.2.1.spark.jar:assembly/target/scala-2.10/spark-assembly-1.5.3-SNAPSHOT-hadoop2.2.0.jar org.apache.hive.beeline.BeeLine -u jdbc:hive2://<thrift server public address>:10000/default --verbose=true发布于 2017-06-16 20:39:39
我也有同样的问题。对我来说,设置SPARK_HOME环境变量就做到了!
export SPARK_HOME=/Users/../Downloads/spark-2.1.1-bin-hadoop2.7这是因为如果你实际打开并看到"bin/beeline“脚本文件,你会发现这一行:
确定SPARK_HOME是否设置为
因此,在将SPARK_HOME设置到适当的位置后,beeline开始正常工作。
https://stackoverflow.com/questions/34468202
复制相似问题