训练 Faster R-CNN 时如何固定共享卷积层
How shared convolutional layers are fixed in training Faster R-CNN
我正在查看 code in the library. In the paper,(第 6 页,第二列,第一段),它表示卷积层是固定的(在第三和第四步的训练期间)并调整了 RPN 层和快速 RCNN 层。
代码的哪一部分负责处理它?
我查看了代码,Solver.cpp 是控制 Forward/Backward 的代码。
我在那里没有看到修复卷积层的实现。
那么所有的 prototxt 文件都有类似的图层实现。
训练中的固定卷积层是如何实现的?
在微调过程中冻结图层时,通常会设置
param { lr_mult: 0 }
对于该层,caffe 不会更新该层的权重。
我正在查看 code in the library. In the paper,(第 6 页,第二列,第一段),它表示卷积层是固定的(在第三和第四步的训练期间)并调整了 RPN 层和快速 RCNN 层。
代码的哪一部分负责处理它?
我查看了代码,Solver.cpp 是控制 Forward/Backward 的代码。 我在那里没有看到修复卷积层的实现。
那么所有的 prototxt 文件都有类似的图层实现。
训练中的固定卷积层是如何实现的?
在微调过程中冻结图层时,通常会设置
param { lr_mult: 0 }
对于该层,caffe 不会更新该层的权重。