平均张量积
Mean tensor product
我还有一个问题与我的上一个问题有关()。在那里我发现我的计算有误。使用 np.tensordot 我正在计算以下等式:
<..> 应该显示平均值。
在 python 代码中它确实看起来像这样(ewp 是一个向量并且 re 是一个张量):
q1 = numpy.tensordot(re, ewp, axes=(1, 0))
q2 = numpy.tensordot(q1, ewp, axes=(1, 0))
serc = q2 ** 2
或
serc = numpy.einsum('im, m -> i', numpy.einsum('ilm, l -> im',
numpy.einsum('iklm, k -> ilm', numpy.einsum('ijklm, j -> iklm',
numpy.einsum('ijk, ilm -> ijklm', re, re), ewp), ewp), ewp), ewp)
现在,在我忽略的两个 python 代码中,所有可能性都成倍增加。但是当然 w_j
和 w_k
对于 j=k
并不是独立的。在这种情况下,只有 j 和 k 相同,我们得到 < w_j*w_j*w_l*w_m> = <w_j>*<w_l>*<w_m>
。对于 j=k=l
,我们得到:< w_j*w_j*w_j*w_m> = <w_j>*<w_m>
。对于 j=k=l=m
:< w_j*w_j*w_j*w_j> = <w_j>
。只有当所有变量都不同时,独立性才为真,我们得到:< w_i*w_j*w_l*w_m> = <w_i>*<w_j>*<w_l>*<w_m>
。现在这就是代码对所有可能性所做的事情。我希望这能让我的问题变得容易理解。现在我的问题是如何在我的代码中表示它?
编辑:我的一个想法是先创建一个 4dim。代表 <w_j w_k w_l w_m>
:
的张量
wtensor = numpy.einsum('jkl, m -> jklm', numpy.einsum('jk, l -> jkl',
numpy.einsum('j, k -> jk', ewp, ewp), ewp), ewp)
然后我需要更改不独立的值。我假设它们应该在对角线上?但是我真的对张量微积分了解不多,所以在这一点上我很挣扎。
操纵 w 张量后,我将通过执行以下操作获得结果:
serc = numpy.einsum('ijklm, jklm -> i', numpy.einsum('ijk, ilm ->
ijklm', re, re), wtensor)
Edit2:在另一个 post 中,我准确地询问了如何操作 4dim 以使其适合此处。 Divakar 有一个非常好的解决方案,可以在这里看到:
from itertools import product
n_dims = 4 # Number of dims
# Create 2D array of all possible combinations of X's as rows
idx = np.sort(np.array(list(product(np.arange(gn),
repeat=n_dims))),axis=1)
# Get all X's indexed values from ewp array
vals = ewp[idx]
# Set the duplicates along each row as 1s. With the np.prod coming up
next,
#these 1s would not affect the result, which is the expected pattern
here.
vals[:,1:][idx[:,1:] == idx[:,:-1]] = 1
# Perform product along each row and reshape into multi-dim array
out = vals.prod(1).reshape([gn]*n_dims)
我在这里得到的数组是 wtensor
,我现在可以在上面的代码中使用它:
serc = numpy.einsum('ijklm, jklm -> i', numpy.einsum('ijk, ilm ->
ijklm', re, re), wtensor)
这终于给了我想要的结果,基本上回答了问题。
虽然有一个问题。然后还定义张量大小的 ewp 的长度不应大于 6。否则代码将使用大量内存。我的意图是使用它直到大小为 8,所以不幸的是现在这是我的下一个问题。
嗯,你可以通过 np.tensordot
和 np.einsum
的组合有效地做到这一点,就像这样 -
serc = np.einsum('ilm,ilm->i',re,np.tensordot(re,wtensor,axes=[(1,2),(0,1)]))
我还有一个问题与我的上一个问题有关(
q1 = numpy.tensordot(re, ewp, axes=(1, 0))
q2 = numpy.tensordot(q1, ewp, axes=(1, 0))
serc = q2 ** 2
或
serc = numpy.einsum('im, m -> i', numpy.einsum('ilm, l -> im',
numpy.einsum('iklm, k -> ilm', numpy.einsum('ijklm, j -> iklm',
numpy.einsum('ijk, ilm -> ijklm', re, re), ewp), ewp), ewp), ewp)
现在,在我忽略的两个 python 代码中,所有可能性都成倍增加。但是当然 w_j
和 w_k
对于 j=k
并不是独立的。在这种情况下,只有 j 和 k 相同,我们得到 < w_j*w_j*w_l*w_m> = <w_j>*<w_l>*<w_m>
。对于 j=k=l
,我们得到:< w_j*w_j*w_j*w_m> = <w_j>*<w_m>
。对于 j=k=l=m
:< w_j*w_j*w_j*w_j> = <w_j>
。只有当所有变量都不同时,独立性才为真,我们得到:< w_i*w_j*w_l*w_m> = <w_i>*<w_j>*<w_l>*<w_m>
。现在这就是代码对所有可能性所做的事情。我希望这能让我的问题变得容易理解。现在我的问题是如何在我的代码中表示它?
编辑:我的一个想法是先创建一个 4dim。代表 <w_j w_k w_l w_m>
:
wtensor = numpy.einsum('jkl, m -> jklm', numpy.einsum('jk, l -> jkl',
numpy.einsum('j, k -> jk', ewp, ewp), ewp), ewp)
然后我需要更改不独立的值。我假设它们应该在对角线上?但是我真的对张量微积分了解不多,所以在这一点上我很挣扎。 操纵 w 张量后,我将通过执行以下操作获得结果:
serc = numpy.einsum('ijklm, jklm -> i', numpy.einsum('ijk, ilm ->
ijklm', re, re), wtensor)
Edit2:在另一个 post 中,我准确地询问了如何操作 4dim 以使其适合此处。 Divakar 有一个非常好的解决方案,可以在这里看到:
from itertools import product
n_dims = 4 # Number of dims
# Create 2D array of all possible combinations of X's as rows
idx = np.sort(np.array(list(product(np.arange(gn),
repeat=n_dims))),axis=1)
# Get all X's indexed values from ewp array
vals = ewp[idx]
# Set the duplicates along each row as 1s. With the np.prod coming up
next,
#these 1s would not affect the result, which is the expected pattern
here.
vals[:,1:][idx[:,1:] == idx[:,:-1]] = 1
# Perform product along each row and reshape into multi-dim array
out = vals.prod(1).reshape([gn]*n_dims)
我在这里得到的数组是 wtensor
,我现在可以在上面的代码中使用它:
serc = numpy.einsum('ijklm, jklm -> i', numpy.einsum('ijk, ilm ->
ijklm', re, re), wtensor)
这终于给了我想要的结果,基本上回答了问题。 虽然有一个问题。然后还定义张量大小的 ewp 的长度不应大于 6。否则代码将使用大量内存。我的意图是使用它直到大小为 8,所以不幸的是现在这是我的下一个问题。
嗯,你可以通过 np.tensordot
和 np.einsum
的组合有效地做到这一点,就像这样 -
serc = np.einsum('ilm,ilm->i',re,np.tensordot(re,wtensor,axes=[(1,2),(0,1)]))