我用OBSPY导入的文件有207条形成流的跟踪,每个跟踪有30k个样本。来自每个跟踪的数据由seismic_datatrace_number.data访问,并且是一个一维的ndarray.
我使用的函数以跟踪和int作为参数: kurt_1d(signal_1d,samples)。它返回一个相同大小的一维数组.
目前,我在207跟踪上使用for循环来运行每个跟踪的函数:
def kurt_nd(signal_nd, samples):
kurt_array = signal_nd.copy()
for index in range(207):
kurt_array[index].data = kurt_1d(signal_1d=signal_nd[index].data,samples=samples)
return(kurt_array)如何使用多进程将这个函数kurt_1d(signal_1d,samples)应用于整个流(207个跟踪)以提高速度?目标是将每个生成的一维ndarray存储在原始流副本的各自索引中。
发布于 2018-06-07 15:04:32
可以定义一个进程池来运行该函数。示例代码如下:
import multiprocessing as mp
import os
num_proc = os.cpu_count() # to get the number of cores on your computer
pool = mp.Pool(processes=num_proc)
proc = [pool.appy_async(kurt_nd,args=[i,samples]) for i in traces] # map the function to the processes
results = [p.get() for p in proc] # retrieve the results from your processes https://stackoverflow.com/questions/50718084
复制相似问题