定义自定义 Op theano 的 grad
Defining grad of a custom Op theano
我正在尝试定义一个带有梯度的自定义 theano Op 以将其与 pymc3 一起使用,但我不明白如何定义 grad
方法。
下面的代码是我卡住的地方。函数phi()
是一个mock函数(实际上是一个外部程序);对于标量输入 x
它 returns 一个向量 (phi_0(x), phi_1(x), ...)
。函数 phi_diff()
(也是模拟函数)returns 向量 (dphi_0/dx, dphi_1/dx, ...)
.
我将 phi()
和 phi_diff()
包装在 theano.Op
对象中,但我对 grad
函数的实现不起作用。 theano 的文档包含更简单的示例,我不明白在这种情况下如何调整它们。任何帮助将不胜感激。
import numpy as np
import theano.tensor as T
import theano
theano.config.optimizer = "None"
theano.config.exception_verbosity = "high"
def phi(x):
return np.arange(n) * x
def phi_diff(x):
return np.arange(n)
class PhiOp(theano.Op):
itypes = [theano.tensor.dscalar]
otypes = [theano.tensor.dvector]
def perform(self, node, inputs, output_storage):
x = inputs[0]
output_storage[0][0] = phi(x)
def grad(self, inputs, output_grads):
x = inputs[0]
# ???
return [PhiDiffOp()(x) * output_grads[0]]
class PhiDiffOp(theano.Op):
itypes = [theano.tensor.dscalar]
otypes = [theano.tensor.dvector]
def perform(self, node, inputs, output_storage):
x = inputs[0]
output_storage[0][0] = phi_diff(x)
n = 5
x = 777.
phi_op = PhiOp()
x_tensor = T.dscalar("x_tensor")
phi_func = theano.function([x_tensor], phi_op(x_tensor))
np.testing.assert_allclose(phi_func(x), phi(x))
T.jacobian(phi_op(x_tensor), x_tensor)
找到解决方案,修改如下:
def phi_diff(x):
return np.arange(n, dtype=np.float_)
class PhiOp(theano.Op):
def grad(self, inputs, output_grads):
x = inputs[0]
gg = (PhiDiffOp()(x) * output_grads[0]).sum()
return [gg]
我正在尝试定义一个带有梯度的自定义 theano Op 以将其与 pymc3 一起使用,但我不明白如何定义 grad
方法。
下面的代码是我卡住的地方。函数phi()
是一个mock函数(实际上是一个外部程序);对于标量输入 x
它 returns 一个向量 (phi_0(x), phi_1(x), ...)
。函数 phi_diff()
(也是模拟函数)returns 向量 (dphi_0/dx, dphi_1/dx, ...)
.
我将 phi()
和 phi_diff()
包装在 theano.Op
对象中,但我对 grad
函数的实现不起作用。 theano 的文档包含更简单的示例,我不明白在这种情况下如何调整它们。任何帮助将不胜感激。
import numpy as np
import theano.tensor as T
import theano
theano.config.optimizer = "None"
theano.config.exception_verbosity = "high"
def phi(x):
return np.arange(n) * x
def phi_diff(x):
return np.arange(n)
class PhiOp(theano.Op):
itypes = [theano.tensor.dscalar]
otypes = [theano.tensor.dvector]
def perform(self, node, inputs, output_storage):
x = inputs[0]
output_storage[0][0] = phi(x)
def grad(self, inputs, output_grads):
x = inputs[0]
# ???
return [PhiDiffOp()(x) * output_grads[0]]
class PhiDiffOp(theano.Op):
itypes = [theano.tensor.dscalar]
otypes = [theano.tensor.dvector]
def perform(self, node, inputs, output_storage):
x = inputs[0]
output_storage[0][0] = phi_diff(x)
n = 5
x = 777.
phi_op = PhiOp()
x_tensor = T.dscalar("x_tensor")
phi_func = theano.function([x_tensor], phi_op(x_tensor))
np.testing.assert_allclose(phi_func(x), phi(x))
T.jacobian(phi_op(x_tensor), x_tensor)
找到解决方案,修改如下:
def phi_diff(x):
return np.arange(n, dtype=np.float_)
class PhiOp(theano.Op):
def grad(self, inputs, output_grads):
x = inputs[0]
gg = (PhiDiffOp()(x) * output_grads[0]).sum()
return [gg]