在张量流中,如何在传播到下一层之前重新调整梯度?

In tensorflow how can I rescale gradient before it propagates to the next layer?

我有一个渐变同时从L2_1和L2_2层进入L1层,我需要在1/sqrt(2)进入L1之前重新调整梯度(L2_1 + L2_2) .我该怎么做?

我的网络看起来像这样:

                L2_1
               /    \
input -> L0 - L1     L_final
               \    /
                L2_2

您可以将 L2_1 和 L2_2 输出除以 sqrt(2)。这将重新调整激活和反向传播。如果你只想修改 backprop 而不是激活,你可以使用来自

的梯度替换技巧