理解 numpy np.tensordot

understanding numpy np.tensordot

arr1 = np.arange(8).reshape(4, 2)
arr2 = np.arange(4, 12).reshape(2, 4)
ans=np.tensordot(arr1,arr2,axes=([1],[0]))
ans2=np.tensordot(arr1,arr2,axes=([0],[1]))
ans3 = np.tensordot(arr1,arr2, axes=([1,0],[0,1]))

我想了解这个张量点函数是如何工作的。我知道它 returns tensordot 产品。

但是轴部分对我来说有点难理解。我观察到的

对于 ans,它就像数组 arr1 中的列数和 arr2 中的行数构成最终矩阵。

对于 ans2,它是 arr2 中的列数和 arr1 中的行数的另一种方式

我不明白坐标轴=([1,0],[0,1])。让我知道我对 ans 和 ans2 的理解是否正确

据我从 tensordot 文档中了解到,您在 ans、ans2 和 ans3 中提供了一个轴列表(ans 和 ans2 在列表中只有一个元素)。然后该列表指定要对哪些轴求和。您假设 ans 和 ans2 是正确的,其中 ans 中的第一个元素是 arr1 的 0 轴(arr1 中的行)和 arr2 中的 1 轴(arr2 中的列)。我不完全确定对 ans3 有什么期望,但我可能会自己尝试 运行 一些示例并看一看。我希望这可以让你更好地理解

link: https://numpy.org/doc/stable/reference/generated/numpy.tensordot.html

您忘记显示数组:

In [87]: arr1
Out[87]: 
array([[0, 1],
       [2, 3],
       [4, 5],
       [6, 7]])
In [88]: arr2
Out[88]: 
array([[ 4,  5,  6,  7],
       [ 8,  9, 10, 11]])
In [89]: ans
Out[89]: 
array([[  8,   9,  10,  11],
       [ 32,  37,  42,  47],
       [ 56,  65,  74,  83],
       [ 80,  93, 106, 119]])
In [90]: ans2
Out[90]: 
array([[ 76, 124],
       [ 98, 162]])
In [91]: ans3
Out[91]: array(238)

ans就是正则点,矩阵乘积:

In [92]: np.dot(arr1,arr2)
Out[92]: 
array([[  8,   9,  10,  11],
       [ 32,  37,  42,  47],
       [ 56,  65,  74,  83],
       [ 80,  93, 106, 119]])

dot 乘积之和在 arr1([1],[0]) 轴 1 和 arr2 的轴 0 上执行(常规跨列,向下行)。使用 2d 'sum across ...' 短语可能会造成混淆。处理 1 或 3 维数组时更清楚。这里将匹配大小 2 个维度相加,留下 (4,4).

ans2 反转它们,对 4 求和,产生 (2,2):

In [94]: np.dot(arr2,arr1)
Out[94]: 
array([[ 76,  98],
       [124, 162]])

tensordot 刚刚调换了 2 个数组并执行了常规 dot:

In [95]: np.dot(arr1.T,arr2.T)
Out[95]: 
array([[ 76, 124],
       [ 98, 162]])

ans3 使用转置和重塑 (ravel),在两个轴上求和:

In [98]: np.dot(arr1.ravel(),arr2.T.ravel())
Out[98]: 238

一般来说,tensordot 混合使用转置和整形来将问题简化为 2d np.dot 问题。然后它可能会重塑和转置结果。

我觉得einsum的尺寸控制更清晰:

In [99]: np.einsum('ij,jk->ik',arr1,arr2)
Out[99]: 
array([[  8,   9,  10,  11],
       [ 32,  37,  42,  47],
       [ 56,  65,  74,  83],
       [ 80,  93, 106, 119]])
In [100]: np.einsum('ji,kj->ik',arr1,arr2)
Out[100]: 
array([[ 76, 124],
       [ 98, 162]])
In [101]: np.einsum('ij,ji',arr1,arr2)
Out[101]: 238

随着einsummatmul/@的发展,tensordot变得没那么必要了。它更难理解,并且没有任何速度或灵活性优势。不用担心看不懂。

ans3 是其他 2 个答案的轨迹(对角线之和):

In [103]: np.trace(ans)
Out[103]: 238
In [104]: np.trace(ans2)
Out[104]: 238