训练深度学习模型时应该何时使用预训练权重?

When should you use pretrained weights when training deep learning models?

我对训练一系列图像和物体检测模型很感兴趣,我想知道何时使用像 VGG16 这样的网络的预训练权重的一般规则是什么。

例如,微调预训练的 VGG16 imagenet 模型权重似乎很明显有助于您寻找子集,即。猫和狗。

但是我不太清楚如果你用 300 类 训练一个图像分类器,使用这些预训练的权重是否是个好主意,其中只有一些是 类 的子集预训练模型。

对此的直觉是什么?

下层学习的特征不一定特定于您的 application/dataset:角、边、简单形状等。因此,您的数据是否严格属于原始网络类别的子集并不重要可以预测。

根据您有多少数据可用于训练,以及数据与预训练网络中使用的数据的相似程度,您可以决定冻结较低层并仅学习较高层,或者只是训练一个预训练网络之上的分类器。

检查 here 以获得更详细的答案