远程调用在 Actor 对象中的方法上使用时会阻塞吗?
Remote calls are blocking when used on methods in an Actor Object?
执行以下不会并发执行,而是先执行Run1,阻塞直到执行完毕,再执行Run2。
@ray.remote
class Test:
def __init__(self):
pass
def Run1(self):
print('Run1 Start')
sleep(5)
print('Run1 End')
def Run2(self):
print('Run2')
ray.init()
test = Test.remote()
test.Run1.remote()
test.Run2.remote()
sleep(10)
输出:
(pid=8109) Run1 Start
(pid=8109) Run1 End
(pid=8109) Run2
这有点出乎意料。如何强制这些方法同时执行?
编辑以解决后续评论:
采用双线程方法似乎行不通。下面的代码始终导致 PyArrow 的管道损坏。我想 运行 self.PreloadSamples 方法和 self.Optimize 方法始终并行。 BufferActor class 通过 @ray.remote 修饰的 GetSamples() 方法收集并提供批处理样本。由于 GPU 上的数据不可序列化,因此这需要在优化器对象端完成,我想确保这在优化方面是并行完成的,而不是顺序完成的。
请参阅下面的完全隔离版本的问题,该版本在 运行ning 大约 1 分钟后重现问题:
import torch
import ray
import threading
from time import sleep
def Threaded(fn):
def wrapper(*args, **kwargs):
thread = threading.Thread(target=fn, args=args, kwargs=kwargs)
thread.start()
return thread
return wrapper
@ray.remote
class BufferActor():
def __init__(self):
pass
def GetSamples(self):
return torch.randn(32, 100)
@ray.remote(num_gpus=1)
class OptimizerActor():
def __init__(self, bufferActor):
self.bufferActor = bufferActor
self.samplesOnGPU = list()
self.PreloadSamples()
self.Optimize()
@Threaded
def PreloadSamples(self):
#this retrieves a batch of samples (in numpy/torch format on CPU)
if (len(self.samplesOnGPU) < 5):
samples = ray.get(self.bufferActor.GetSamples.remote())
self.samplesOnGPU.append(samples.to('cuda'))
print('Samples Buffer: %s' % len(self.samplesOnGPU))
else:
sleep(0.01)
self.PreloadSamples()
@Threaded
def Optimize(self):
if (len(self.samplesOnGPU) > 0):
samples = self.samplesOnGPU.pop(0)
print('Optimizing')
#next we perform loss calc + backprop + optimizer step (not shown)
sleep(0.01)
self.Optimize()
ray.init()
bufferActor = BufferActor.remote()
optimizerActor = OptimizerActor.remote(bufferActor)
sleep(60*60)
Actor 将一次执行一个方法以避免并发问题。如果你想与 actor 并行(你通常这样做),最好的方法是启动两个(或更多)actor 并向他们提交任务。
执行以下不会并发执行,而是先执行Run1,阻塞直到执行完毕,再执行Run2。
@ray.remote
class Test:
def __init__(self):
pass
def Run1(self):
print('Run1 Start')
sleep(5)
print('Run1 End')
def Run2(self):
print('Run2')
ray.init()
test = Test.remote()
test.Run1.remote()
test.Run2.remote()
sleep(10)
输出:
(pid=8109) Run1 Start
(pid=8109) Run1 End
(pid=8109) Run2
这有点出乎意料。如何强制这些方法同时执行?
编辑以解决后续评论:
采用双线程方法似乎行不通。下面的代码始终导致 PyArrow 的管道损坏。我想 运行 self.PreloadSamples 方法和 self.Optimize 方法始终并行。 BufferActor class 通过 @ray.remote 修饰的 GetSamples() 方法收集并提供批处理样本。由于 GPU 上的数据不可序列化,因此这需要在优化器对象端完成,我想确保这在优化方面是并行完成的,而不是顺序完成的。
请参阅下面的完全隔离版本的问题,该版本在 运行ning 大约 1 分钟后重现问题:
import torch
import ray
import threading
from time import sleep
def Threaded(fn):
def wrapper(*args, **kwargs):
thread = threading.Thread(target=fn, args=args, kwargs=kwargs)
thread.start()
return thread
return wrapper
@ray.remote
class BufferActor():
def __init__(self):
pass
def GetSamples(self):
return torch.randn(32, 100)
@ray.remote(num_gpus=1)
class OptimizerActor():
def __init__(self, bufferActor):
self.bufferActor = bufferActor
self.samplesOnGPU = list()
self.PreloadSamples()
self.Optimize()
@Threaded
def PreloadSamples(self):
#this retrieves a batch of samples (in numpy/torch format on CPU)
if (len(self.samplesOnGPU) < 5):
samples = ray.get(self.bufferActor.GetSamples.remote())
self.samplesOnGPU.append(samples.to('cuda'))
print('Samples Buffer: %s' % len(self.samplesOnGPU))
else:
sleep(0.01)
self.PreloadSamples()
@Threaded
def Optimize(self):
if (len(self.samplesOnGPU) > 0):
samples = self.samplesOnGPU.pop(0)
print('Optimizing')
#next we perform loss calc + backprop + optimizer step (not shown)
sleep(0.01)
self.Optimize()
ray.init()
bufferActor = BufferActor.remote()
optimizerActor = OptimizerActor.remote(bufferActor)
sleep(60*60)
Actor 将一次执行一个方法以避免并发问题。如果你想与 actor 并行(你通常这样做),最好的方法是启动两个(或更多)actor 并向他们提交任务。