首页
学习
活动
专区
圈层
工具
发布
社区首页 >问答首页 >最大模式长度fpgrowth apache spark

最大模式长度fpgrowth apache spark
EN

Stack Overflow用户
提问于 2017-06-13 03:21:56
回答 0查看 672关注 0票数 2

我正在尝试使用Spark Scala运行关联规则。我首先创建一个FPGrowth树并将其传递给关联规则方法。

但是,我希望添加一个最大模式长度参数,以限制我想要的LHS和RHS上的项目数量。我只想要项目之间的一对一关联。

代码语言:javascript
复制
    val model = new FPGrowth()
      .setMinSupport(0.1)
      .setNumPartitions(10)
      .run(transactions)

    // Generate association rules based on the frequent sets generated by FPgrowth
    val ar = new AssociationRules().setMinConfidence(0.6)
    val results = ar.run(model.freqItemsets)

生成的关联规则为:

代码语言:javascript
复制
ItemA => ItemB, {confidence}

ItemB => ItemC, {confidence}

ItemA,ItemB => ItemC, {confidence}

ItemA,ItemD => ItemE, {confidence}

但我希望它只返回两边都有一项的结果,即:

代码语言:javascript
复制
ItemA => ItemB, {confidence}

ItemB => ItemC, {confidence}

基本上,我正在寻找一种在Spark Scala/Spark Java中指定最大长度参数的方法

有什么建议吗?

EN

回答

页面原文内容由Stack Overflow提供。腾讯云小微IT领域专用引擎提供翻译支持
原文链接:

https://stackoverflow.com/questions/44507217

复制
相关文章

相似问题

领券
问题归档专栏文章快讯文章归档关键词归档开发者手册归档开发者手册 Section 归档