理解 numpy np.tensordot
understanding numpy np.tensordot
arr1 = np.arange(8).reshape(4, 2)
arr2 = np.arange(4, 12).reshape(2, 4)
ans=np.tensordot(arr1,arr2,axes=([1],[0]))
ans2=np.tensordot(arr1,arr2,axes=([0],[1]))
ans3 = np.tensordot(arr1,arr2, axes=([1,0],[0,1]))
我想了解这个张量点函数是如何工作的。我知道它 returns tensordot 产品。
但是轴部分对我来说有点难理解。我观察到的
对于 ans,它就像数组 arr1 中的列数和 arr2 中的行数构成最终矩阵。
对于 ans2,它是 arr2 中的列数和 arr1 中的行数的另一种方式
我不明白坐标轴=([1,0],[0,1])。让我知道我对 ans 和 ans2 的理解是否正确
据我从 tensordot 文档中了解到,您在 ans、ans2 和 ans3 中提供了一个轴列表(ans 和 ans2 在列表中只有一个元素)。然后该列表指定要对哪些轴求和。您假设 ans 和 ans2 是正确的,其中 ans 中的第一个元素是 arr1 的 0 轴(arr1 中的行)和 arr2 中的 1 轴(arr2 中的列)。我不完全确定对 ans3 有什么期望,但我可能会自己尝试 运行 一些示例并看一看。我希望这可以让你更好地理解
link: https://numpy.org/doc/stable/reference/generated/numpy.tensordot.html
您忘记显示数组:
In [87]: arr1
Out[87]:
array([[0, 1],
[2, 3],
[4, 5],
[6, 7]])
In [88]: arr2
Out[88]:
array([[ 4, 5, 6, 7],
[ 8, 9, 10, 11]])
In [89]: ans
Out[89]:
array([[ 8, 9, 10, 11],
[ 32, 37, 42, 47],
[ 56, 65, 74, 83],
[ 80, 93, 106, 119]])
In [90]: ans2
Out[90]:
array([[ 76, 124],
[ 98, 162]])
In [91]: ans3
Out[91]: array(238)
ans
就是正则点,矩阵乘积:
In [92]: np.dot(arr1,arr2)
Out[92]:
array([[ 8, 9, 10, 11],
[ 32, 37, 42, 47],
[ 56, 65, 74, 83],
[ 80, 93, 106, 119]])
dot
乘积之和在 arr1
的 ([1],[0])
轴 1 和 arr2
的轴 0 上执行(常规跨列,向下行)。使用 2d 'sum across ...' 短语可能会造成混淆。处理 1 或 3 维数组时更清楚。这里将匹配大小 2 个维度相加,留下 (4,4).
ans2
反转它们,对 4 求和,产生 (2,2):
In [94]: np.dot(arr2,arr1)
Out[94]:
array([[ 76, 98],
[124, 162]])
tensordot
刚刚调换了 2 个数组并执行了常规 dot
:
In [95]: np.dot(arr1.T,arr2.T)
Out[95]:
array([[ 76, 124],
[ 98, 162]])
ans3
使用转置和重塑 (ravel
),在两个轴上求和:
In [98]: np.dot(arr1.ravel(),arr2.T.ravel())
Out[98]: 238
一般来说,tensordot
混合使用转置和整形来将问题简化为 2d np.dot
问题。然后它可能会重塑和转置结果。
我觉得einsum
的尺寸控制更清晰:
In [99]: np.einsum('ij,jk->ik',arr1,arr2)
Out[99]:
array([[ 8, 9, 10, 11],
[ 32, 37, 42, 47],
[ 56, 65, 74, 83],
[ 80, 93, 106, 119]])
In [100]: np.einsum('ji,kj->ik',arr1,arr2)
Out[100]:
array([[ 76, 124],
[ 98, 162]])
In [101]: np.einsum('ij,ji',arr1,arr2)
Out[101]: 238
随着einsum
和matmul/@
的发展,tensordot
变得没那么必要了。它更难理解,并且没有任何速度或灵活性优势。不用担心看不懂。
ans3
是其他 2 个答案的轨迹(对角线之和):
In [103]: np.trace(ans)
Out[103]: 238
In [104]: np.trace(ans2)
Out[104]: 238
arr1 = np.arange(8).reshape(4, 2)
arr2 = np.arange(4, 12).reshape(2, 4)
ans=np.tensordot(arr1,arr2,axes=([1],[0]))
ans2=np.tensordot(arr1,arr2,axes=([0],[1]))
ans3 = np.tensordot(arr1,arr2, axes=([1,0],[0,1]))
我想了解这个张量点函数是如何工作的。我知道它 returns tensordot 产品。
但是轴部分对我来说有点难理解。我观察到的
对于 ans,它就像数组 arr1 中的列数和 arr2 中的行数构成最终矩阵。
对于 ans2,它是 arr2 中的列数和 arr1 中的行数的另一种方式
我不明白坐标轴=([1,0],[0,1])。让我知道我对 ans 和 ans2 的理解是否正确
据我从 tensordot 文档中了解到,您在 ans、ans2 和 ans3 中提供了一个轴列表(ans 和 ans2 在列表中只有一个元素)。然后该列表指定要对哪些轴求和。您假设 ans 和 ans2 是正确的,其中 ans 中的第一个元素是 arr1 的 0 轴(arr1 中的行)和 arr2 中的 1 轴(arr2 中的列)。我不完全确定对 ans3 有什么期望,但我可能会自己尝试 运行 一些示例并看一看。我希望这可以让你更好地理解
link: https://numpy.org/doc/stable/reference/generated/numpy.tensordot.html
您忘记显示数组:
In [87]: arr1
Out[87]:
array([[0, 1],
[2, 3],
[4, 5],
[6, 7]])
In [88]: arr2
Out[88]:
array([[ 4, 5, 6, 7],
[ 8, 9, 10, 11]])
In [89]: ans
Out[89]:
array([[ 8, 9, 10, 11],
[ 32, 37, 42, 47],
[ 56, 65, 74, 83],
[ 80, 93, 106, 119]])
In [90]: ans2
Out[90]:
array([[ 76, 124],
[ 98, 162]])
In [91]: ans3
Out[91]: array(238)
ans
就是正则点,矩阵乘积:
In [92]: np.dot(arr1,arr2)
Out[92]:
array([[ 8, 9, 10, 11],
[ 32, 37, 42, 47],
[ 56, 65, 74, 83],
[ 80, 93, 106, 119]])
dot
乘积之和在 arr1
的 ([1],[0])
轴 1 和 arr2
的轴 0 上执行(常规跨列,向下行)。使用 2d 'sum across ...' 短语可能会造成混淆。处理 1 或 3 维数组时更清楚。这里将匹配大小 2 个维度相加,留下 (4,4).
ans2
反转它们,对 4 求和,产生 (2,2):
In [94]: np.dot(arr2,arr1)
Out[94]:
array([[ 76, 98],
[124, 162]])
tensordot
刚刚调换了 2 个数组并执行了常规 dot
:
In [95]: np.dot(arr1.T,arr2.T)
Out[95]:
array([[ 76, 124],
[ 98, 162]])
ans3
使用转置和重塑 (ravel
),在两个轴上求和:
In [98]: np.dot(arr1.ravel(),arr2.T.ravel())
Out[98]: 238
一般来说,tensordot
混合使用转置和整形来将问题简化为 2d np.dot
问题。然后它可能会重塑和转置结果。
我觉得einsum
的尺寸控制更清晰:
In [99]: np.einsum('ij,jk->ik',arr1,arr2)
Out[99]:
array([[ 8, 9, 10, 11],
[ 32, 37, 42, 47],
[ 56, 65, 74, 83],
[ 80, 93, 106, 119]])
In [100]: np.einsum('ji,kj->ik',arr1,arr2)
Out[100]:
array([[ 76, 124],
[ 98, 162]])
In [101]: np.einsum('ij,ji',arr1,arr2)
Out[101]: 238
随着einsum
和matmul/@
的发展,tensordot
变得没那么必要了。它更难理解,并且没有任何速度或灵活性优势。不用担心看不懂。
ans3
是其他 2 个答案的轨迹(对角线之和):
In [103]: np.trace(ans)
Out[103]: 238
In [104]: np.trace(ans2)
Out[104]: 238