首页
学习
活动
专区
圈层
工具
发布
社区首页 >问答首页 >在pySpark数据帧上聚合的多个条件

在pySpark数据帧上聚合的多个条件
EN

Stack Overflow用户
提问于 2016-10-27 09:08:12
回答 1查看 33.6K关注 0票数 20

我有一个看起来像这样的pySpark数据帧:

代码语言:javascript
复制
+-------------+----------+
|          sku|      date|
+-------------+----------+
|MLA-603526656|02/09/2016|
|MLA-603526656|01/09/2016|
|MLA-604172009|02/10/2016|
|MLA-605470584|02/09/2016|
|MLA-605502281|02/10/2016|
|MLA-605502281|02/09/2016|
+-------------+----------+

我想按sku分组,然后计算最小日期和最大日期。如果我这样做:

代码语言:javascript
复制
df_testing.groupBy('sku') \
    .agg({'date': 'min', 'date':'max'}) \
    .limit(10) \
    .show()

其行为与Pandas相同,在Pandas中,我只获取skumax(date)列。在Pandas中,我通常会执行以下操作来获得我想要的结果:

代码语言:javascript
复制
df_testing.groupBy('sku') \
    .agg({'day': ['min','max']}) \
    .limit(10) \
    .show()

然而,这在pySpark上不起作用,并且我得到了一个java.util.ArrayList cannot be cast to java.lang.String错误。谁能告诉我正确的语法是什么?

谢谢。

EN

回答 1

Stack Overflow用户

回答已采纳

发布于 2016-10-27 09:12:47

您不能使用dict。使用:

代码语言:javascript
复制
>>> from pyspark.sql import functions as F
>>>
>>> df_testing.groupBy('sku').agg(F.min('date'), F.max('date'))
票数 45
EN
页面原文内容由Stack Overflow提供。腾讯云小微IT领域专用引擎提供翻译支持
原文链接:

https://stackoverflow.com/questions/40274508

复制
相关文章

相似问题

领券
问题归档专栏文章快讯文章归档关键词归档开发者手册归档开发者手册 Section 归档