首页
学习
活动
专区
圈层
工具
发布
社区首页 >问答首页 >pyspark中的first_value窗口函数

pyspark中的first_value窗口函数
EN

Stack Overflow用户
提问于 2016-02-02 07:12:04
回答 1查看 15.5K关注 0票数 6

我正在使用pyspark 1.5从Hive表中获取数据,并尝试使用窗口函数。

根据this的说法,存在一个名为firstValue的分析函数,它将为给定窗口提供第一个非空值。我知道它存在于蜂巢中,但我在pyspark中找不到它。

鉴于pyspark不支持UserDefinedAggregateFunctions (UDAF),有没有办法实现这一点?

EN

回答 1

Stack Overflow用户

回答已采纳

发布于 2016-02-02 08:16:23

Spark >= 2.0

first采用可选的ignorenulls参数,该参数可以模拟first_value的行为

代码语言:javascript
复制
df.select(col("k"), first("v", True).over(w).alias("fv"))

火花< 2.0

可用函数称为first,使用方法如下:

代码语言:javascript
复制
df = sc.parallelize([
    ("a", None), ("a", 1), ("a", -1), ("b", 3)
]).toDF(["k", "v"])

w = Window().partitionBy("k").orderBy("v")

df.select(col("k"), first("v").over(w).alias("fv"))

但是如果你想忽略空值,你必须直接使用Hive UDF:

代码语言:javascript
复制
df.registerTempTable("df")

sqlContext.sql("""
    SELECT k, first_value(v, TRUE) OVER (PARTITION BY k ORDER BY v)
    FROM df""")
票数 14
EN
页面原文内容由Stack Overflow提供。腾讯云小微IT领域专用引擎提供翻译支持
原文链接:

https://stackoverflow.com/questions/35142216

复制
相关文章

相似问题

领券
问题归档专栏文章快讯文章归档关键词归档开发者手册归档开发者手册 Section 归档