首页
学习
活动
专区
圈层
工具
发布
社区首页 >问答首页 >计算spark scala中的峰度array[Double]场

计算spark scala中的峰度array[Double]场
EN

Stack Overflow用户
提问于 2019-12-10 12:37:19
回答 1查看 189关注 0票数 0

如何计算spark中阵列场的峰度

spark内置函数使数组字段失败。

due to data type mismatch: argument 1 requires double type, however, 'SERIES' is of array<double> type.;;

python中的示例

代码语言:javascript
复制
 from scipy.stats import kurtosis
 kurtosis([1, 2, 3, 4, 5])
-1.3

我使用了spark内置函数

代码语言:javascript
复制
df.withColumn("newcolumn",when(col("SERIES").isNotNull,kurtosis(columnName))
EN

回答 1

Stack Overflow用户

回答已采纳

发布于 2019-12-11 05:25:34

使用Twitter Algebra软件包,我可以得到峰度值。

代码语言:javascript
复制
import com.twitter.algebird._
val y  = List(1, 2, 3, 4, 5)
def getMoments(xs: List[Int]): Moments =
xs.foldLeft(MomentsGroup.zero) { (m, x) =>
  MomentsGroup.plus(m, Moments(x))
}

println(getMoments(y).kurtosis) // -1.3
票数 1
EN
页面原文内容由Stack Overflow提供。腾讯云小微IT领域专用引擎提供翻译支持
原文链接:

https://stackoverflow.com/questions/59260322

复制
相关文章

相似问题

领券
问题归档专栏文章快讯文章归档关键词归档开发者手册归档开发者手册 Section 归档