注意到PySpark的一些奇怪的行为,会感谢你的任何见解。
假设我有一个由简单元素组成的RDD
from collections import namedtuple
Animal = namedtuple('Animal', ('name','age'))
a = Animal('jeff',3)
b = Animal('mike',5)
c = Animal('cathy',5)
rdd=sc.parallelize([a,b,c])现在,我感兴趣的是在一个简单的类中捕获该RDD的不同属性,例如使用rdd.map(lambda s: getattr(s,'name'))从每个元素中提取name属性。
所以这个类的对象
class simple():
def __init__(self,name):
self.name=name
def get_value(self):
self.value = rdd.map(lambda s: getattr(s,self.name)).collect()将设置它们的name并从RDD获取相应的values。
theAges = simple('age')
theAges.get_value()但是,这遇到了一个错误,我认为它的中心是lambda表达式中的lambda。这个第二类很好。
class simple2():
def __init__(self,name):
self.name=name
def get_value(self):
n=self.name
self.value = rdd.map(lambda s: getattr(s,n)).collect() 我所添加的只是前面的一个调用n=self.name,并将n传递给lambda而不是self.name。
那么,我们无法评估self.name在lambda中的问题是什么呢?我在纯python中创建了类似的情况(在self.name中使用lambda),并且没有错误,所以我认为这是特定于火花的。谢谢你的想法。
发布于 2015-04-14 06:24:55
这是因为pyspark无法在类实例上创建闭包。在n作用域中分配get_value允许Spark释放被腌制的函数,包括对象属性的别名。到目前为止,解决方案似乎只是在函数范围内分配类属性(但不要指望它们会改变!)
https://stackoverflow.com/questions/29241230
复制相似问题