我正在尝试根据组对一个数据的几个列计算(x-x.means()/ (x.std +0.01) )。我的原始数据非常大。虽然我已经将原始文件分割成几个块,并且我使用多处理来运行文件的每个块上的脚本,但是每个数据块仍然非常大,而且这个过程从未完成。
我使用了以下代码:
df[val_cols] = df.groupby(['user_id', 'category', 'date'])[val_cols].apply(lambda x: (x - x.mean()) / (x.std() + 0.01))根据我的经验,对于大型数据文件,应用和连接并不有效,因此我想找到一种替代groupby和应用函数的方法。
有谁知道将这个过程向量化的更好的方法,而不是使用groupby并应用?我也不想要一个多处理库,比如pandarallel,更快或者是dask,因为我已经尝试过了,但是它们并没有帮助我。
样本df:
df = pd.DataFrame(columns=['user_id', 'category', 'date', 'item_id', 'value_1_diff', 'value_2_diff', 'value_3_diff'], data=[[4,8,'10/5/2019', 'hi', 5, 13, 21], [5,10,'1/12/2019', 'fine', 6, 15, 11], [4,8,'10/5/2019', 'hello', 5, 13, 3], [5,10,'1/12/2019', 'hi', 7, 8, 9], [3,8,'10/5/2019', 'ok', 5,7, 13]])
user_id category date item_id value_1_diff value_2_diff value_3_diff
0 4 8 10/5/2019 hi 5 13 21
1 5 10 1/12/2019 fine 6 15 11
2 4 8 10/5/2019 hello 5 13 3
3 5 10 1/12/2019 hi 7 8 9
4 3 8 10/5/2019 ok 5 7 13发布于 2020-10-28 09:22:03
不确定性能,但这里可以使用GroupBy.transform
val_cols = ['value_1_diff', 'value_2_diff', 'value_3_diff']
g = df.groupby(['user_id', 'category', 'date'])[val_cols]
df[val_cols] = df[val_cols].sub(g.transform('min')).div(g.transform('std') + 0.01)https://stackoverflow.com/questions/64568922
复制相似问题