如何使用多处理并行使用 python 生成器?

How to consume a python gneerator in parallel using multiprocessing?

如何提高 networkx 函数的性能 local_bridges https://networkx.org/documentation/stable//reference/algorithms/generated/networkx.algorithms.bridges.local_bridges.html#networkx.algorithms.bridges.local_bridges

我尝试过使用 pypy - 但到目前为止我仍然坚持在单核上使用生成器。我的图表有 300k 条边。一个例子:

# construct the nx Graph:
import networkx as nx
# construct an undirected graph here - this is just a dummy graph
G = nx.cycle_graph(300000)

# fast - as it only returns an generator/iterator
lb = nx.local_bridges(G)

# individual item is also fast
%%time
next(lb)
CPU times: user 1.01 s, sys: 11 ms, total: 1.02 s
Wall time: 1.02 s

# computing all the values is very slow.
lb_list = list(lb)

如何并行使用此迭代器以利用所有处理器内核?当前的天真实现仅使用单核!

我天真的多线程第一次尝试是:

import multiprocessing as mp
lb = nx.local_bridges(G)
pool = mp.Pool()
lb_list = list(pool.map((), lb))

但是,我不想应用特定的函数 - () 而只是从迭代器中并行获取 next 元素。

相关: python or dask parallel generator?

编辑

我想这归结为如何并行化:

lb_res = []
lb = nx.local_bridges(G)
for node in range(1, len(G) +1):
    lb_res.append(next(lb))
    
lb_res

天真地使用多处理显然失败了:

# from multiprocessing import Pool
# 
from multiprocess import Pool
lb_res = []
lb = nx.local_bridges(G)

def my_function(thing):
    return next(thing)

with Pool(5) as p:
    parallel_result = p.map(my_function, range(1, len(G) +1))
    
parallel_result

但我不清楚如何将生成器作为参数传递给 map 函数 - 并完全使用生成器。

编辑 2

对于这个特定问题,事实证明瓶颈是 with_span=True 参数的最短路径计算。禁用时,速度相当快。

当需要计算跨度时,我建议 cugraph 在 GPU 上快速实现 SSSP。尽管如此,边集上的迭代并不是并行发生的,应该进一步改进。

但是,要了解更多信息,我有兴趣了解如何并行化 python 中生成器的消耗。

您不能并行使用生成器,每个非平凡生成器的下一个状态都由其当前状态决定。您必须按顺序调用 next()

来自https://github.com/networkx/networkx/blob/master/networkx/algorithms/bridges.py#L162函数是这样实现的

for u, v in G.edges:
    if not (set(G[u]) & set(G[v])):
        yield u, v

所以您可以使用类似这样的方法将其并行化,但是您将不得不承担使用类似 multiprocessing.Manager 的方法合并这些单独列表的惩罚。我认为这只会让整个事情变得更慢,但你可以自己计时。

def process_edge(e):
    u, v = e
    lb_list = []
    if not (set(G[u]) & set(G[v])):
        lb_list.append((u,v))
with Pool(os.cpu_count()) as pool:
    pool.map(process_edge, G.edges)

另一种方法是将图拆分为顶点范围并同时处理它们。

def process_nodes(nodes):
    lb_list = []
    for u in nodes:
        for v in G[u]:
            if not (set(G[u]) & set(G[v])):
                lb_list.append((u,v))

with Pool(os.cpu_count()) as pool:
    pool.map(process_nodes, np.array_split(list(range(G.number_of_nodes())), 
os.cpu_count()))

也许您还可以检查是否存在针对此问题的更好算法。或者找到一个用 C 实现的更快的库。