首页
学习
活动
专区
圈层
工具
发布
社区首页 >问答首页 >无法在Spark中实例化BinaryClassificationMetrics类

无法在Spark中实例化BinaryClassificationMetrics类
EN

Stack Overflow用户
提问于 2018-12-20 05:28:43
回答 1查看 457关注 0票数 0

我第一次在Scala上使用Spark Mllib,在实例化BinaryClassificationMetrics类时遇到了问题。它给出了一个Cannot resolve constructor错误,即使我根据需要将它的输入格式化为元组的RDD。你知道可能出了什么问题吗?

代码语言:javascript
复制
def modelEvaluation(model: PipelineModel, test: DataFrame): Unit = {
 // Make a prediction on the test set
    val predictionAndLabels = model.transform(test)
      .select("prediction","label")
      .rdd
      .map(r => (r(0),r(1)))
      /*.collect()
      .foreach(r => println(r))*/

    // Instantiate metrics object
    val metrics = new BinaryClassificationMetrics(predictionAndLabels)

    // Precision-Recall Curve
    //val PRC = metrics.pr
  }
EN

回答 1

Stack Overflow用户

发布于 2019-07-03 17:05:12

BinaryClassificationMetrics需要RDD[(Double, Double)],详细信息:https://spark.apache.org/docs/2.4.0/api/scala/index.html#org.apache.spark.mllib.evaluation.BinaryClassificationMetrics

所以你可能会像这样改变:

代码语言:javascript
复制
def modelEvaluation(model: PipelineModel, test: DataFrame): Unit = {
  // Make a prediction on the test set
  val predictionAndLabels = model.transform(test)
    .select("prediction","label")
    .rdd
    .map(r => (r(0).toString.toDouble,r(1).toString.toDouble))

  // Instantiate metrics object
  val metrics = new BinaryClassificationMetrics(predictionAndLabels)

  // Precision-Recall Curve
  //val PRC = metrics.pr
}
票数 0
EN
页面原文内容由Stack Overflow提供。腾讯云小微IT领域专用引擎提供翻译支持
原文链接:

https://stackoverflow.com/questions/53859402

复制
相关文章

相似问题

领券
问题归档专栏文章快讯文章归档关键词归档开发者手册归档开发者手册 Section 归档