自动 Differentiation:numerical 还是精确?

Automatic Differentiation:numerical or exact?

我有一个关于自动微分的问题,特别是在 Pytorch 中,因为我正在使用这个 library.I 已经看到例如自动微分给出了一个表达式相对于变量的偏导数。

然而,据我所见,结果总是在特定点给出,这意味着它是一个带有数值的张量 values.My 问题如下:假设我们定义了一个函数两个变量: f(x,y)= x² + y² .

Pytorch 是否能够return 对应于 f 对 x 或 y 的偏导数的函数?即对return进行如下定义:

> def partial_f_x:

      return 2*x

  def partial_f_y:
    
      return 2*y

因为即使这里的函数f很简单,如果Pytorch能给我们一个导数的公式(取决于不同的变量),而不是给出给定点的数值,那会很有趣,因为在那种情况下,我们不知道导数的表达式。

所以如果我总结一下:Pytorch 是否能够 return 复杂函数导数的公式?或者它只是 return 一个在给定点具有导数数值的张量?

非常感谢!

这不是 pytorch 获取导数的方式。大多数(可能是全部)计算包都是用近似的方法得到导数值而不是求导函数,所以他们不关心数学术语中的导数是什么。

如果您正在寻找类似的东西,您可以尝试使用 sympy 符号数学库。这是一个例子:

import sympy as sym

x = sym.Symbol('x')
y = sym.Symbol('y')

sym.diff(x**2 + y**2, x, 1)
# => 2*x

sym.diff(x**2 + y**2, y, 1)
# => 2*y

然后要进行评估,您只需代入要用于变量的值即可:

dfdx.subs(y,1)
# => 2