是否需要为冻结层定义反向函数?
Is it necessary to define the backward function for the frozen layers?
我有一个具有 4 个隐藏层的函数拟合网络。
我需要为 first 和 third 层找到合适的权重,
而 second 和 fourth 层是某种 normalization 层,不需要学习,所以我只是通过将它们的学习率设置为零来冻结它们。
我的问题是:
我应该为那两个冻结层定义后向函数吗?
我saw在caffe中,没有任何可学习参数的池化层具有反向功能。
提前致谢,
是的,你需要一个向后传递,否则你的学习将停止在这一层(它下面的任何东西都不会学习)。即使对于不可学习的层,您也需要计算 有效梯度.
我有一个具有 4 个隐藏层的函数拟合网络。
我需要为 first 和 third 层找到合适的权重, 而 second 和 fourth 层是某种 normalization 层,不需要学习,所以我只是通过将它们的学习率设置为零来冻结它们。
我的问题是:
我应该为那两个冻结层定义后向函数吗?
我saw在caffe中,没有任何可学习参数的池化层具有反向功能。
提前致谢,
是的,你需要一个向后传递,否则你的学习将停止在这一层(它下面的任何东西都不会学习)。即使对于不可学习的层,您也需要计算 有效梯度.