如何在 Python 中通知父线程作业完成
How to notify a parent thread of job completion in Python
我想使用以下代码在列表中查找特定数量的排列。
def permutations(ls, prefix, result):
if ls:
for i in range(len(ls)):
permutations([*ls[0:i], *ls[i + 1:]], [*prefix, ls[i]], result)
else:
result.append(prefix)
return result
我的问题是我不能简单地包含另一个参数来计算找到的排列数。我不能这样做,因为每次对 permutations()
"splits" 的递归调用都会变成新的 "version" (这就像旧计数器在路上的岔路口,每个分支都计算自己的排列数发现,不与他人交流)。换句话说,这行不通:
def permutations(ls, prefix, result, count, limit):
if count > limit:
return
if ls:
for i in range(len(ls)):
permutations([*ls[0:i], *ls[i + 1:]], [*prefix, ls[i]], result)
else:
count += 1
result.append(prefix)
return result
所以我想做的不是在函数签名中包含 count
参数,而是在每次发现新排列时通知程序的其他部分,并跟踪计数那样。这可能是线程的一个很好的用途,但如果可能的话,我想在没有并行化的情况下进行(或者至少是最简单的并行化解决方案)。
我意识到我必须在每次调用 for 循环中的 permutations([*ls[0:i], *ls[i + 1:]], [*prefix, ls[i]], result)
时生成一个新线程。
我希望有人能为我指明正确的方向,或者让我知道 Python 中是否有更好的方法来做到这一点。
如果您不使用线程,那么我建议不要使用线程,也不要考虑使用线程。
原因是解决问题越简单直接,就越容易思考。
作为第二个提示,每当您发现自己在遍历排列时,您可能应该找到更好的方法。原因是长度 n
的排列数会随着 n!
增长,并且根据您的 doing/your 耐心,计算机会在 n=10
和 [=13] 之间达到顶峰=].因此,找到无需实际迭代即可计数的方法变得至关重要。具体怎么做,当然要看你的问题了。
但是回到前面提到的问题。我个人会使用 generators 在 Python 中解决此类问题。也就是说,您拥有可以在生成器中生成列表的下一个元素的代码,然后您可以在其他地方拥有处理它的代码。这使您可以立即开始处理您的列表,而不是将其全部保存在内存中。
在没有生成器的语言中,我会用闭包来解决这个问题。那就是你传入一个你为每个值调用的函数(或对象),它会做任何它想做的事情。这再次允许您将迭代逻辑与每次迭代要执行的操作的逻辑分开。
如果您正在使用其他形式的合作社 multi-tasking,请改用它。因此,例如,在 JavaScript 中,您必须弄清楚如何使用 Promises 进行协调。 (幸运的是,async/await 语法允许你这样做,并使它看起来几乎像一个生成器方法。请注意,你可能会立即在内存中处理大部分数据集。如何避免这种情况是和本身。)再举一个例子,在 Go 中你应该使用通道和 goroutines。
我只会在万不得已时才使用全局变量。如果这样做,请记住您需要足够的内存来将您迭代的整个数据集一次保存在内存中。这可能会占用很多内存!
与通常的 multi-threading 方法相比,我更喜欢所有这些方法。
我想使用以下代码在列表中查找特定数量的排列。
def permutations(ls, prefix, result):
if ls:
for i in range(len(ls)):
permutations([*ls[0:i], *ls[i + 1:]], [*prefix, ls[i]], result)
else:
result.append(prefix)
return result
我的问题是我不能简单地包含另一个参数来计算找到的排列数。我不能这样做,因为每次对 permutations()
"splits" 的递归调用都会变成新的 "version" (这就像旧计数器在路上的岔路口,每个分支都计算自己的排列数发现,不与他人交流)。换句话说,这行不通:
def permutations(ls, prefix, result, count, limit):
if count > limit:
return
if ls:
for i in range(len(ls)):
permutations([*ls[0:i], *ls[i + 1:]], [*prefix, ls[i]], result)
else:
count += 1
result.append(prefix)
return result
所以我想做的不是在函数签名中包含 count
参数,而是在每次发现新排列时通知程序的其他部分,并跟踪计数那样。这可能是线程的一个很好的用途,但如果可能的话,我想在没有并行化的情况下进行(或者至少是最简单的并行化解决方案)。
我意识到我必须在每次调用 for 循环中的 permutations([*ls[0:i], *ls[i + 1:]], [*prefix, ls[i]], result)
时生成一个新线程。
我希望有人能为我指明正确的方向,或者让我知道 Python 中是否有更好的方法来做到这一点。
如果您不使用线程,那么我建议不要使用线程,也不要考虑使用线程。
原因是解决问题越简单直接,就越容易思考。
作为第二个提示,每当您发现自己在遍历排列时,您可能应该找到更好的方法。原因是长度 n
的排列数会随着 n!
增长,并且根据您的 doing/your 耐心,计算机会在 n=10
和 [=13] 之间达到顶峰=].因此,找到无需实际迭代即可计数的方法变得至关重要。具体怎么做,当然要看你的问题了。
但是回到前面提到的问题。我个人会使用 generators 在 Python 中解决此类问题。也就是说,您拥有可以在生成器中生成列表的下一个元素的代码,然后您可以在其他地方拥有处理它的代码。这使您可以立即开始处理您的列表,而不是将其全部保存在内存中。
在没有生成器的语言中,我会用闭包来解决这个问题。那就是你传入一个你为每个值调用的函数(或对象),它会做任何它想做的事情。这再次允许您将迭代逻辑与每次迭代要执行的操作的逻辑分开。
如果您正在使用其他形式的合作社 multi-tasking,请改用它。因此,例如,在 JavaScript 中,您必须弄清楚如何使用 Promises 进行协调。 (幸运的是,async/await 语法允许你这样做,并使它看起来几乎像一个生成器方法。请注意,你可能会立即在内存中处理大部分数据集。如何避免这种情况是和本身。)再举一个例子,在 Go 中你应该使用通道和 goroutines。
我只会在万不得已时才使用全局变量。如果这样做,请记住您需要足够的内存来将您迭代的整个数据集一次保存在内存中。这可能会占用很多内存!
与通常的 multi-threading 方法相比,我更喜欢所有这些方法。