首页
学习
活动
专区
圈层
工具
发布
社区首页 >问答首页 >Apache火花- java.lang.NoSuchMethodError: breeze.linalg.DenseVector

Apache火花- java.lang.NoSuchMethodError: breeze.linalg.DenseVector
EN

Stack Overflow用户
提问于 2014-07-20 23:08:18
回答 1查看 2.3K关注 0票数 3

我在一次游戏中运行ApacheSpark1.0.1有问题!应用程序。目前,我正试图在游戏中运行星火!应用和使用一些基本的机器学习在星火中。

这是我的应用程序创建:

代码语言:javascript
复制
  def sparkFactory: SparkContext = {
    val logFile = "public/README.md" // Should be some file on your system
    val driverHost = "localhost"
    val conf = new SparkConf(false) // skip loading external settings
      .setMaster("local[4]") // run locally with enough threads
      .setAppName("firstSparkApp")
      .set("spark.logConf", "true")
      .set("spark.driver.host", s"$driverHost")
    new SparkContext(conf)
  }

这是一个错误,当我试图对一个高大瘦弱的矩阵做一些基本的发现时:

代码语言:javascript
复制
[error] o.a.s.e.ExecutorUncaughtExceptionHandler - Uncaught exception in thread Thread[Executor task launch worker-3,5,main]
java.lang.NoSuchMethodError: breeze.linalg.DenseVector$.dv_v_ZeroIdempotent_InPlaceOp_Double_OpAdd()Lbreeze/linalg/operators/BinaryUpdateRegistry;
    at org.apache.spark.mllib.linalg.distributed.RowMatrix$$anonfun$5.apply(RowMatrix.scala:313) ~[spark-mllib_2.10-1.0.1.jar:1.0.1]
    at org.apache.spark.mllib.linalg.distributed.RowMatrix$$anonfun$5.apply(RowMatrix.scala:313) ~[spark-mllib_2.10-1.0.1.jar:1.0.1]
    at scala.collection.TraversableOnce$$anonfun$foldLeft$1.apply(TraversableOnce.scala:144) ~[scala-library-2.10.4.jar:na]
    at scala.collection.TraversableOnce$$anonfun$foldLeft$1.apply(TraversableOnce.scala:144) ~[scala-library-2.10.4.jar:na]
    at scala.collection.Iterator$class.foreach(Iterator.scala:727) ~[scala-library-2.10.4.jar:na]
    at scala.collection.AbstractIterator.foreach(Iterator.scala:1157) ~[scala-library-2.10.4.jar:na]

上述错误是由下列因素触发的:

代码语言:javascript
复制
  def computePrincipalComponents(datasetId: String) = Action {
    val datapoints = DataPoint.listByDataset(datasetId)

    // load the data into spark
    val rows = datapoints.map(_.data).map { row =>
      row.map(_.toDouble)
    }
    val RDDRows = WorkingSpark.context.makeRDD(rows).map { line =>
      Vectors.dense(line)
    }

    val mat = new RowMatrix(RDDRows)
    val result = mat.computePrincipalComponents(mat.numCols().toInt)


    Ok(result.toString)
  }

这看起来像是依赖问题,但不知道从哪里开始。有什么想法吗?

EN

回答 1

Stack Overflow用户

回答已采纳

发布于 2014-07-20 23:12:38

啊,这确实是依赖冲突造成的。显然,新的星火使用了新的微风方法,这些方法在我所使用的版本中是不可用的。把布莱兹从我的剧中赶走!构建文件,我能够运行上述功能刚刚好。

对于那些感兴趣的人,下面是输出:

代码语言:javascript
复制
-0.23490049167080018  0.4371989078912155    0.5344916752692394    ... (6 total)
-0.43624389448418854  0.531880914138611     0.1854269324452522    ...
-0.5312372137092107   0.17954211389001487   -0.456583286485726    ...
-0.5172743086226219   -0.2726152326516076   -0.36740474569706394  ...
-0.3996400343756039   -0.5147253632175663   0.303449047782936     ...
-0.21216780828347453  -0.39301803119012546  0.4943679121187219    ...
票数 2
EN
页面原文内容由Stack Overflow提供。腾讯云小微IT领域专用引擎提供翻译支持
原文链接:

https://stackoverflow.com/questions/24855776

复制
相关文章

相似问题

领券
问题归档专栏文章快讯文章归档关键词归档开发者手册归档开发者手册 Section 归档