首页
学习
活动
专区
圈层
工具
发布
社区首页 >问答首页 >如何将变量传递给UDAF (自定义聚合函数)

如何将变量传递给UDAF (自定义聚合函数)
EN

Stack Overflow用户
提问于 2020-09-21 20:25:45
回答 1查看 36关注 0票数 0
代码语言:javascript
复制
import pandas as pd
import numpy as np
from pyspark.sql import SparkSession
import pyspark.sql.functions as F
from pyspark.sql.functions import PandasUDFType, pandas_udf
from pyspark.sql.types import *
import os



@pandas_udf(schema, functionType=PandasUDFType.GROUPED_MAP)
def split(df, validation_period):

   ""Logic""

    return df

def train_test_split(spark, data_frame, request_json_data):

    data_frame = spark.createDataFrame(data_frame)
    print(data_frame.schema)
 

    validation_period = request_json_data['validation_period']
    groupby_key = request_json_data['groupby_key']

    data_frame.groupby(groupby_key).apply(split, validation_period).show()

无法调用split函数,出现错误。apply()接受2个位置参数,但给出了3个。我想将validation_period作为参数传递给拆分函数。

EN

回答 1

Stack Overflow用户

发布于 2020-09-21 23:57:17

简短的回答:您不能将额外的参数传递给pandas分组的map udf,因为它只有一个pandas df作为参数。

冗长的答案:还有其他方法可以将validation_period传递给函数

  1. 使用某种形式的闭包

def split_fabric(validation_period):@pandas_udf(模式,模式) def split_fabric(Df):""Logic"“return df

  1. 将其作为列传递

data_frame \ .withColumn("validation_period",F.lit(validation_period)) \ .groupby(groupby_key).apply(split,split

票数 0
EN
页面原文内容由Stack Overflow提供。腾讯云小微IT领域专用引擎提供翻译支持
原文链接:

https://stackoverflow.com/questions/63992246

复制
相关文章

相似问题

领券
问题归档专栏文章快讯文章归档关键词归档开发者手册归档开发者手册 Section 归档