了解其梯度函数中的 JAX argnums 参数
Understanding JAX argnums parameter in its gradient function
我试图了解 argnums
在 JAX 的梯度函数中的行为。
假设我有以下功能:
def make_mse(x, t):
def mse(w,b):
return np.sum(jnp.power(x.dot(w) + b - t, 2))/2
return mse
我采用以下方式进行渐变:
w_gradient, b_gradient = grad(make_mse(train_data, y), (0,1))(w,b)
argnums= (0,1)
在这种情况下,它是什么意思?关于哪些变量计算梯度?如果我改用 argnums=0
会有什么区别?
另外,我可以使用相同的函数来获取 Hessian 矩阵吗?
我查看了有关它的 JAX help 部分,但无法弄明白
当您将多个 argnum 传递给 grad 时,结果是一个 returns 梯度元组的函数,相当于如果您分别计算每个:
def f(x, y):
return x ** 2 + x * y + y ** 2
df_dxy = grad(f, argnums=(0, 1))
df_dx = grad(f, argnums=0)
df_dy = grad(f, argnums=1)
x = 3.0
y = 4.25
assert df_dxy(x, y) == (df_dx(x, y), df_dy(x, y))
如果要计算混合二阶导数,可以通过重复应用梯度来实现:
d2f_dxdy = grad(grad(f, argnums=0), argnums=1)
assert d2f_dxdy(x, y) == 1
我试图了解 argnums
在 JAX 的梯度函数中的行为。
假设我有以下功能:
def make_mse(x, t):
def mse(w,b):
return np.sum(jnp.power(x.dot(w) + b - t, 2))/2
return mse
我采用以下方式进行渐变:
w_gradient, b_gradient = grad(make_mse(train_data, y), (0,1))(w,b)
argnums= (0,1)
在这种情况下,它是什么意思?关于哪些变量计算梯度?如果我改用 argnums=0
会有什么区别?
另外,我可以使用相同的函数来获取 Hessian 矩阵吗?
我查看了有关它的 JAX help 部分,但无法弄明白
当您将多个 argnum 传递给 grad 时,结果是一个 returns 梯度元组的函数,相当于如果您分别计算每个:
def f(x, y):
return x ** 2 + x * y + y ** 2
df_dxy = grad(f, argnums=(0, 1))
df_dx = grad(f, argnums=0)
df_dy = grad(f, argnums=1)
x = 3.0
y = 4.25
assert df_dxy(x, y) == (df_dx(x, y), df_dy(x, y))
如果要计算混合二阶导数,可以通过重复应用梯度来实现:
d2f_dxdy = grad(grad(f, argnums=0), argnums=1)
assert d2f_dxdy(x, y) == 1