平均张量积

Mean tensor product

我还有一个问题与我的上一个问题有关()。在那里我发现我的计算有误。使用 np.tensordot 我正在计算以下等式: <..> 应该显示平均值。 在 python 代码中它确实看起来像这样(ewp 是一个向量并且 re 是一个张量):

q1 = numpy.tensordot(re, ewp, axes=(1, 0))
q2 = numpy.tensordot(q1, ewp, axes=(1, 0))
serc = q2 ** 2

serc = numpy.einsum('im, m -> i', numpy.einsum('ilm, l -> im',
numpy.einsum('iklm, k -> ilm', numpy.einsum('ijklm, j -> iklm',
numpy.einsum('ijk, ilm -> ijklm', re, re), ewp), ewp), ewp), ewp)

现在,在我忽略的两个 python 代码中,所有可能性都成倍增加。但是当然 w_jw_k 对于 j=k 并不是独立的。在这种情况下,只有 j 和 k 相同,我们得到 < w_j*w_j*w_l*w_m> = <w_j>*<w_l>*<w_m>。对于 j=k=l,我们得到:< w_j*w_j*w_j*w_m> = <w_j>*<w_m>。对于 j=k=l=m< w_j*w_j*w_j*w_j> = <w_j>。只有当所有变量都不同时,独立性才为真,我们得到:< w_i*w_j*w_l*w_m> = <w_i>*<w_j>*<w_l>*<w_m>。现在这就是代码对所有可能性所做的事情。我希望这能让我的问题变得容易理解。现在我的问题是如何在我的代码中表示它?

编辑:我的一个想法是先创建一个 4dim。代表 <w_j w_k w_l w_m>:

的张量
wtensor = numpy.einsum('jkl, m -> jklm', numpy.einsum('jk, l -> jkl',
numpy.einsum('j, k -> jk', ewp, ewp), ewp), ewp)

然后我需要更改不独立的值。我假设它们应该在对角线上?但是我真的对张量微积分了解不多,所以在这一点上我很挣扎。 操纵 w 张量后,我将通过执行以下操作获得结果:

serc = numpy.einsum('ijklm, jklm -> i', numpy.einsum('ijk, ilm ->
ijklm', re, re), wtensor)

Edit2:在另一个 post 中,我准确地询问了如何操作 4dim 以使其适合此处。 Divakar 有一个非常好的解决方案,可以在这里看到:

from itertools import product

n_dims = 4 # Number of dims
# Create 2D array of all possible combinations of X's as rows
idx = np.sort(np.array(list(product(np.arange(gn),
repeat=n_dims))),axis=1)
# Get all X's indexed values from ewp array
vals = ewp[idx]
# Set the duplicates along each row as 1s. With the np.prod coming up
next,
#these 1s would not affect the result, which is the expected pattern
here.
vals[:,1:][idx[:,1:] == idx[:,:-1]] = 1
# Perform product along each row and reshape into multi-dim array
out = vals.prod(1).reshape([gn]*n_dims)

我在这里得到的数组是 wtensor,我现在可以在上面的代码中使用它:

serc = numpy.einsum('ijklm, jklm -> i', numpy.einsum('ijk, ilm ->
ijklm', re, re), wtensor)

这终于给了我想要的结果,基本上回答了问题。 虽然有一个问题。然后还定义张量大小的 ewp 的长度不应大于 6。否则代码将使用大量内存。我的意图是使用它直到大小为 8,所以不幸的是现在这是我的下一个问题。

嗯,你可以通过 np.tensordotnp.einsum 的组合有效地做到这一点,就像这样 -

serc = np.einsum('ilm,ilm->i',re,np.tensordot(re,wtensor,axes=[(1,2),(0,1)]))