我使用Spark来训练数据,以便使用随机森林算法进行分类。MLib提供了一个RandomForest类,它具有执行所需的trainClassifier方法。
我能否在训练数据集时设置一个阈值,类似于R's的包中提供的截断选项。
http://cran.r-project.org/web/packages/randomForest/randomForest.pdf
我发现RandomForest类MLib提供的选项仅用于传递树数、杂质数、类数等,但没有什么像阈值或截断选项一样可用。可以用任何方法来做吗。
发布于 2015-06-03 06:57:32
简短的版本是否定的,如果我们看看RandomForestClassifier.scala,你可以看到它总是简单地选择最大值。你可以覆盖预测函数如果,但它不是超级干净。我添加了一个jira来跟踪添加这个。
https://stackoverflow.com/questions/30569201
复制相似问题