首页
学习
活动
专区
圈层
工具
发布
社区首页 >问答首页 >用于org/spark_project/guava/cache/CacheLoader的NoClassDefFoundError

用于org/spark_project/guava/cache/CacheLoader的NoClassDefFoundError
EN

Stack Overflow用户
提问于 2017-11-12 10:11:32
回答 2查看 5K关注 0票数 3

我正在尝试使用Maven在Eclipse的Scala IDE中运行Spark程序。但是,我在初始化SparkConf的行上得到了java.lang.NoClassDefFoundError错误。我还试图为Guava 14.0.1添加一个依赖项,但也没有解决我的问题。:

代码语言:javascript
复制
Exception in thread "main" java.lang.NoClassDefFoundError: org/spark_project/guava/cache/CacheLoader
    at org.apache.spark.SparkConf.loadFromSystemProperties(SparkConf.scala:73)
    at org.apache.spark.SparkConf.<init>(SparkConf.scala:68)
    at org.apache.spark.SparkConf.<init>(SparkConf.scala:55)
    at oursparkapp2.SimpleApp$.main(SimpleApp.scala:8)
    at oursparkapp2.SimpleApp.main(SimpleApp.scala)
Caused by: java.lang.ClassNotFoundException:   org.spark_project.guava.cache.CacheLoader
    at java.net.URLClassLoader.findClass(URLClassLoader.java:381)
    at java.lang.ClassLoader.loadClass(ClassLoader.java:424)
    at sun.misc.Launcher$AppClassLoader.loadClass(Launcher.java:331)
    at java.lang.ClassLoader.loadClass(ClassLoader.java:357)
    ... 5 more 

我尝试运行的scala程序(SimpleApp.scala)如下所示:

代码语言:javascript
复制
package oursparkapp2

import org.apache.spark.SparkConf
import org.apache.spark.SparkContext

object SimpleApp {
  def main(args:Array[String]) {
    val conf = new SparkConf().setAppName("Hlelo")
  }
}

我的pom.xml文件如下:

代码语言:javascript
复制
<project xmlns="http://maven.apache.org/POM/4.0.0" xmlns:xsi="http://www.w3.org/2001/XMLSchema-instance" xsi:schemaLocation="http://maven.apache.org/POM/4.0.0 http://maven.apache.org/xsd/maven-4.0.0.xsd">
  <modelVersion>4.0.0</modelVersion>
  <groupId>ez.spark</groupId>
  <artifactId>oursparkapp2</artifactId>
  <version>0.0.1-SNAPSHOT</version>

  <dependencies>

    <dependency>
        <groupId>org.apache.hadoop</groupId>
        <artifactId>hadoop-common</artifactId>
        <version>2.8.0</version>
    </dependency>

    <dependency>
        <groupId>org.apache.spark</groupId>
        <artifactId>spark-core_2.11</artifactId>
        <version>2.2.0</version>
        <scope>provided</scope>
    </dependency>

  </dependencies>
</project>

此外,使用spark-shell命令,Spark在我的终端上运行得很好。

EN

回答 2

Stack Overflow用户

发布于 2018-12-01 20:44:35

我通过添加依赖项解决了这个问题:

代码语言:javascript
复制
    <dependency>
        <groupId>org.apache.spark</groupId>
        <artifactId>spark-network-common_2.11</artifactId>
        <version>2.1.0</version>
    </dependency>
票数 1
EN

Stack Overflow用户

发布于 2017-11-23 01:28:48

我也有同样的问题。我通过将Spark从2.0.0版本升级到2.2.0解决了这个问题。

票数 0
EN
页面原文内容由Stack Overflow提供。腾讯云小微IT领域专用引擎提供翻译支持
原文链接:

https://stackoverflow.com/questions/47244781

复制
相关文章

相似问题

领券
问题归档专栏文章快讯文章归档关键词归档开发者手册归档开发者手册 Section 归档