我有一个Spark:
user1 item1 rating1
user1 item2 rating2
user1 item3 rating3
user2 item1 rating4
...如何按用户分组,然后使用Scala从每个组返回TopN项?
使用Python的相似代码:
df.groupby("user").apply(the_func_get_TopN)发布于 2015-11-11 17:18:30
可以使用rank窗口函数,如下所示
import org.apache.spark.sql.expressions.Window
import org.apache.spark.sql.functions.{rank, desc}
val n: Int = ???
// Window definition
val w = Window.partitionBy($"user").orderBy(desc("rating"))
// Filter
df.withColumn("rank", rank.over(w)).where($"rank" <= n)如果你不关心领带,那么你可以用rank代替row_number
https://stackoverflow.com/questions/33655467
复制相似问题