>>> import numpy_indexed as npi
>>> import numpy as np
>>> a = np.array([[0,0,1,1,2,2], [4,4,8,8,10,10]]).T
>>> a
array([[ 0, 4],
[ 0, 4],
[ 1, 8],
[ 1, 8],
[ 2, 10],
[ 2, 10]])
>>> npi.group_by(a[:, 0]).sum(a[:,1])
(array([0, 1, 2]), array([ 8, 16, 20], dtype=int32))我想对第二列的子集执行计算,第一列聚集在大集合(~1m行)上。是否有一种有效的(和/或矢量化)方法来使用group_by的numpy_indexed输出,以便在这些计算的输出中添加一个新列?在上面的sum示例中,我想生成下面的输出。
如果一开始就有一种不使用numpy_indexed的有效方法,那么这也是非常有帮助的。
array([[ 0, 4, 8],
[ 0, 4, 8],
[ 1, 8, 16],
[ 1, 8, 16],
[ 2, 10, 20],
[ 2, 10, 20]])发布于 2017-05-18 10:25:37
一种使用np.unique生成唯一标记和间隔移位索引的方法,然后为intervaled-summing生成np.add.reduceat -
_,idx,tags = np.unique(a[:,0], return_index=1, return_inverse=1)
out = np.c_[a, np.add.reduceat(a[:,1],idx)[tags]]另一种避免使用np.unique并可能对性能有利的方法是这样的-
idx = np.r_[0,np.flatnonzero(a[1:,0] > a[:-1,0])+1]
tag_arr = np.zeros(a.shape[0], dtype=int)
tag_arr[idx[1:]] = 1
tags = tag_arr.cumsum()
out = np.c_[a, np.add.reduceat(a[:,1],idx)[tags]]为了进一步提高性能,我们应该使用np.bincount。因此,np.add.reduceat(a[:,1],idx)可以被np.bincount(tags, a[:,1])取代。
样本运行-
In [271]: a # Using a more generic sample
Out[271]:
array([[11, 4],
[11, 4],
[14, 8],
[14, 8],
[16, 10],
[16, 10]])
In [272]: _,idx,tags = np.unique(a[:,0], return_index=1, return_inverse=1)
In [273]: np.c_[a, np.add.reduceat(a[:,1],idx)[tags]]
Out[273]:
array([[11, 4, 8],
[11, 4, 8],
[14, 8, 16],
[14, 8, 16],
[16, 10, 20],
[16, 10, 20]])]现在,列出的方法假设第一列已经排序。如果不是这样的话,我们需要按照第一列argsort对数组进行排序,然后使用建议的方法。因此,对于未排序的情况,我们需要以下预处理-
a = a[a[:,0].argsort()]与np.unique的之战
让我们使用自定义flatnonzero +基于cumsum的方法来针对内置的np.unique创建移动索引:idx和基于唯一性的in/标记:tags。对于这种情况,我们事先知道标签列已经排序了,我们避免了任何排序,就像在np.unique中所做的那样。这给了我们在性能上的优势。那么,让我们来验证一下。
方法-
def nonzero_cumsum_based(A):
idx = np.concatenate(( [0] ,np.flatnonzero(A[1:] > A[:-1])+1 ))
tags = np.zeros(len(A), dtype=int)
tags[idx[1:]] = 1
np.cumsum(tags, out = tags)
return idx, tags
def unique_based(A):
_,idx,tags = np.unique(A, return_index=1, return_inverse=1)
return idx, tags使用自定义功能运行的示例-
In [438]: a
Out[438]:
array([[11, 4],
[11, 4],
[14, 8],
[14, 8],
[16, 10],
[16, 10]])
In [439]: idx, tags = nonzero_cumsum_based(a[:,0])
In [440]: idx
Out[440]: array([0, 2, 4])
In [441]: tags
Out[441]: array([0, 0, 1, 1, 2, 2])时间安排-
In [444]: a = np.c_[np.sort(randi(10,10000,(100000))), randi(0,10000,(100000))]
In [445]: %timeit unique_based(a[:,0])
100 loops, best of 3: 4.3 ms per loop
In [446]: %timeit nonzero_cumsum_based(a[:,0])
1000 loops, best of 3: 486 µs per loop
In [447]: a = np.c_[np.sort(randi(10,10000,(1000000))), randi(0,10000,(1000000))]
In [448]: %timeit unique_based(a[:,0])
10 loops, best of 3: 50.2 ms per loop
In [449]: %timeit nonzero_cumsum_based(a[:,0])
100 loops, best of 3: 3.98 ms per loop发布于 2017-05-18 12:01:24
每个索引对象都有一个反向属性,该属性将约简值映射回原来的范围;为了举例说明,我们可以编写:
index = npi.as_index(keys)
unique_keys = index.unique
unique_keys[index.inverse] == keys # <- should be all true而且这个属性也暴露在GroupBy对象上;实际上,将分组值映射回它们的输入范围是一种常见的有用操作:
groups = npi.group_by(a[:, 0])
unique, sums = groups.sum(a[:, 1])
new_column = sums[groups.inverse]一般来说,numpy_indexed的来源可以启发如何执行这样的公共操作;group_by.var面临同样的问题,例如,将每个组的方法广播回其组成的组中的每个元素,以计算每个组中的错误。但更好的教程当然也不会有什么坏处。
你能对你想要解决的问题给出一个更高层次的描述吗?当您在npi方便的设计模式方面获得更舒适的思考时,您可能会从更高的层次上进一步简化您的代码。
https://stackoverflow.com/questions/44045066
复制相似问题