我是Spark的新手,从Apache下载了一个预编译的Spark二进制文件(Spark-2.1.0-bin-hadoop2.7)
在提交我的scala (2.11.8) uber jar时,集群抛出并出现错误:
java.lang.IllegalStateException: Library directory '/root/spark/assembly/target/scala-2.10/jars' does not exist; make sure Spark is built我没有运行Scala 2.10,Spark (据我所知)也不是用Scala 2.10编译的
会不会是我的一个依赖项基于Scala 2.10?
有什么建议可能是错的吗?
发布于 2017-07-25 18:21:11
请注意,预先构建的spark-2.1.0有什么问题,但我刚刚下载了spark 2.2.0,它工作得很好。
发布于 2017-07-25 18:58:12
尝试在系统或集成开发环境中设置SPARK_HOME="location to your spark installation
https://stackoverflow.com/questions/45293666
复制相似问题