为什么我们在添加多个神经网络输出时采用相同维度的层?
Why do we take equal dimension of layers during addition of multiple neural networks outputs?
我正在阅读一些涉及同时处理图像和文本序列输入的项目,我想知道为什么我们在 Keras add() 当我们在 密集层
中组合来自不同神经网络的输出时起作用
Q1:这样做有什么好处吗?
Q2: 如果我们在add( ) 或merge( ) 中取不等维会影响模型性能吗?
Q3:我们也可以将其视为另一个超参数并对其进行调整以获得模型的最佳拟合吗?
这是结构
Add()
需要相同维度的张量。所以你根本不能使用不同维度的 add() 操作。
矩阵 (N, A) 与矩阵 (N, B) 的相加仅在 A == B 时才有意义,因为 A 和 B 的值 > 1。当 A 或 B == 1 时,您可以应用广播规则。
我正在阅读一些涉及同时处理图像和文本序列输入的项目,我想知道为什么我们在 Keras add() 当我们在 密集层
中组合来自不同神经网络的输出时起作用Q1:这样做有什么好处吗?
Q2: 如果我们在add( ) 或merge( ) 中取不等维会影响模型性能吗?
Q3:我们也可以将其视为另一个超参数并对其进行调整以获得模型的最佳拟合吗?
这是结构
Add()
需要相同维度的张量。所以你根本不能使用不同维度的 add() 操作。
矩阵 (N, A) 与矩阵 (N, B) 的相加仅在 A == B 时才有意义,因为 A 和 B 的值 > 1。当 A 或 B == 1 时,您可以应用广播规则。