首页
学习
活动
专区
圈层
工具
发布
社区首页 >问答首页 >在pySpark中将RDD拆分为n个部件

在pySpark中将RDD拆分为n个部件
EN

Stack Overflow用户
提问于 2016-03-29 10:02:41
回答 1查看 900关注 0票数 1

我想将RDD分割成长度相同的n个部分,使用Pyspark。

如果RDD类似于

代码语言:javascript
复制
data = range(0,20)
d_rdd = sc.parallelize(data)
d_rdd.glom().collect()
[[0, 1, 2, 3, 4, 5, 6, 7, 8, 9], [10, 11, 12, 13, 14, 15, 16, 17, 18, 19]]

我希望任意两个随机数集合在一起,就像

代码语言:javascript
复制
[[0,4],[6,11],[5,18],[3,14],[17,9],[12,8],[2,10],[1,15],[13,19],[7,16]]
EN

回答 1

Stack Overflow用户

回答已采纳

发布于 2016-03-29 10:55:45

两种方法:

当使用parallelize,时,设置分区num,并使用函数 distinct()

代码语言:javascript
复制
data = range(0,20)
d_rdd = sc.parallelize(data, 10).distinct()
d_rdd.glom().collect()

使用repartition() 和using()的

代码语言:javascript
复制
data = range(0,20)
d_rdd = sc.parallelize(data).repartition(10).distinct()
d_rdd.glom().collect()
票数 2
EN
页面原文内容由Stack Overflow提供。腾讯云小微IT领域专用引擎提供翻译支持
原文链接:

https://stackoverflow.com/questions/36281146

复制
相关文章

相似问题

领券
问题归档专栏文章快讯文章归档关键词归档开发者手册归档开发者手册 Section 归档