训练 Faster R-CNN 时如何固定共享卷积层

How shared convolutional layers are fixed in training Faster R-CNN

我正在查看 code in the library. In the paper,(第 6 页,第二列,第一段),它表示卷积层是固定的(在第三和第四步的训练期间)并调整了 RPN 层和快速 RCNN 层。

代码的哪一部分负责处理它?

我查看了代码,Solver.cpp 是控制 Forward/Backward 的代码。 我在那里没有看到修复卷积层的实现。

那么所有的 prototxt 文件都有类似的图层实现。

训练中的固定卷积层是如何实现的?

在微调过程中冻结图层时,通常会设置

param { lr_mult: 0 }

对于该层,caffe 不会更新该层的权重。