tf.reshape() 在内部是如何工作的?

How does tf.reshape() work internally ?

我正在尝试了解 tf.reshape 的工作原理。让我们举个例子:

embeddings = tf.placeholder(tf.float32, shape=[N0,N1])
M_2D = tf.placeholder(tf.float32, shape=[N0,None])
M_3D = tf.reshape(M_2D, [-1,N0,1])
weighted_embeddings = tf.multiply(embeddings, M_3D)

这里我有一个二维张量 M_2D,它的列表示 N1 维的 N0 嵌入的系数。我想创建一个 3D 张量,其中 M_2D 的每一列都放置在 M_3D 的第一维中,并且列保持相同的顺序。我的最终目标是创建一个 2D 嵌入的 3D 张量,每个嵌入由 M_2D 的列加权。

我如何确定重塑实际上将每一列放置在 M_3D 的新维度中。是否有可能改为放置行? tensorflow 文档中是否有关于 tf.reshape 的内部工作过程的明确解释,特别是在提供 -1 时?

tf.reshape前后的张量具有相同的展平顺序

在tensorflow runtime中,一个Tensor由原始数据(字节数组)、形状和数据类型组成,tf.reshape只改变形状,原始数据和数据类型不变。 -1None in tf.reshape表示可以计算出这个值

例如,

# a tensor with 6 elements, with shape [3,2]
a = tf.constant([[1,2], [3,4], [5,6]]) 
# reshape tensor to [2, 3, 1], 2 is calculated by 6/3/1
b = tf.reshape(a, [-1, 3, 1])

在这个例子中,ab具有相同的展平顺序,即[1,2,3,4,5,6]a具有[3,2]的形状,其值为[[1,2], [3,4], [5,6]]b 的形状为 [2,3,1],其值为 [[[1],[2],[3]],[[4],[5],[6]]]