是否需要为冻结层定义反向函数?

Is it necessary to define the backward function for the frozen layers?

我有一个具有 4 个隐藏层的函数拟合网络。

我需要为 firstthird 层找到合适的权重, 而 secondfourth 层是某种 normalization 层,不需要学习,所以我只是通过将它们的学习率设置为零来冻结它们。

我的问题是:

我应该为那两个冻结层定义后向函数吗?

saw在caffe中,没有任何可学习参数的池化层具有反向功能。

提前致谢,

是的,你需要一个向后传递,否则你的学习将停止在这一层(它下面的任何东西都不会学习)。即使对于不可学习的层,您也需要计算 有效梯度.