首页
学习
活动
专区
圈层
工具
发布
社区首页 >问答首页 >Spark SQL grouping:如果不关心得到哪个值,则添加到group by或wrap first()。

Spark SQL grouping:如果不关心得到哪个值,则添加到group by或wrap first()。
EN

Stack Overflow用户
提问于 2015-07-10 06:23:51
回答 2查看 29K关注 0票数 8

我在Spark SQL中有一个查询,比如

代码语言:javascript
复制
select count(ts), truncToHour(ts)
from myTable
group by truncToHour(ts).

其中ts是timestamp类型,truncToHour是将timestamp截断为小时的UDF.此查询不起作用。如果我试过,

代码语言:javascript
复制
select count(ts), ts from myTable group by truncToHour(ts)

我得到了expression 'ts' is neither present in the group by, nor is it an aggregate function. Add to group by or wrap in first() if you don't care which value you get.;,但如果我这样做了,就不会定义first()

代码语言:javascript
复制
select count(ts), first(ts) from myTable group by truncToHour(ts)

如何在不使用子查询的情况下获得我想要的东西?另外,为什么它说"wrap in first()“而没有定义first()呢?

EN

回答 2

Stack Overflow用户

发布于 2015-07-10 06:33:20

我有一个解决方案:

代码语言:javascript
复制
SELECT max(truncHour(ts)), COUNT(ts) FROM myTable GROUP BY truncHour(ts)

代码语言:javascript
复制
SELECT truncHour(max(ts)), count(ts) FROM myTable GROUP BY truncHour(ts)

有没有更好的解决方案?

票数 3
EN

Stack Overflow用户

发布于 2015-09-08 19:43:19

https://issues.apache.org/jira/browse/SPARK-9210

看起来实际的函数是first_value。

票数 3
EN
页面原文内容由Stack Overflow提供。腾讯云小微IT领域专用引擎提供翻译支持
原文链接:

https://stackoverflow.com/questions/31329297

复制
相关文章

相似问题

领券
问题归档专栏文章快讯文章归档关键词归档开发者手册归档开发者手册 Section 归档