张量流中的残差学习

Residual learning in tensorflow

我正试图从一篇研究论文中复制这张图片。图中,橙色箭头表示使用残差学习的捷径,红色轮廓的层表示扩张卷积。

在下面的代码中,r5 是图像中看到的 relu 的结果。为了简单起见,我排除了 relu 和扩张层之间的代码。 在tensorflow中,如何正确结合relu和dilated convolution的结果来执行residual shortcut?

#relu layer
r5 = tf.nn.relu(layer5)
...
#dilation layer
h_conv4 = conv3d_dilation(concat1, 1154)

图像非常简单 - 它说您应该 添加 它们,所以:

#relu layer
r5 = tf.nn.relu(layer5)
...
#dilation layer
h_conv4 = conv3d_dilation(concat1, 1154)

#combined
combined = r5 + h_conv4