在张量流中,如何在传播到下一层之前重新调整梯度?
In tensorflow how can I rescale gradient before it propagates to the next layer?
我有一个渐变同时从L2_1和L2_2层进入L1层,我需要在1/sqrt(2)
进入L1之前重新调整梯度(L2_1 + L2_2)
.我该怎么做?
我的网络看起来像这样:
L2_1
/ \
input -> L0 - L1 L_final
\ /
L2_2
您可以将 L2_1 和 L2_2 输出除以 sqrt(2)。这将重新调整激活和反向传播。如果你只想修改 backprop 而不是激活,你可以使用来自
的梯度替换技巧
我有一个渐变同时从L2_1和L2_2层进入L1层,我需要在1/sqrt(2)
进入L1之前重新调整梯度(L2_1 + L2_2)
.我该怎么做?
我的网络看起来像这样:
L2_1
/ \
input -> L0 - L1 L_final
\ /
L2_2
您可以将 L2_1 和 L2_2 输出除以 sqrt(2)。这将重新调整激活和反向传播。如果你只想修改 backprop 而不是激活,你可以使用来自