训练深度学习模型时应该何时使用预训练权重?
When should you use pretrained weights when training deep learning models?
我对训练一系列图像和物体检测模型很感兴趣,我想知道何时使用像 VGG16 这样的网络的预训练权重的一般规则是什么。
例如,微调预训练的 VGG16 imagenet 模型权重似乎很明显有助于您寻找子集,即。猫和狗。
但是我不太清楚如果你用 300 类 训练一个图像分类器,使用这些预训练的权重是否是个好主意,其中只有一些是 类 的子集预训练模型。
对此的直觉是什么?
下层学习的特征不一定特定于您的 application/dataset:角、边、简单形状等。因此,您的数据是否严格属于原始网络类别的子集并不重要可以预测。
根据您有多少数据可用于训练,以及数据与预训练网络中使用的数据的相似程度,您可以决定冻结较低层并仅学习较高层,或者只是训练一个预训练网络之上的分类器。
检查 here 以获得更详细的答案
我对训练一系列图像和物体检测模型很感兴趣,我想知道何时使用像 VGG16 这样的网络的预训练权重的一般规则是什么。
例如,微调预训练的 VGG16 imagenet 模型权重似乎很明显有助于您寻找子集,即。猫和狗。
但是我不太清楚如果你用 300 类 训练一个图像分类器,使用这些预训练的权重是否是个好主意,其中只有一些是 类 的子集预训练模型。
对此的直觉是什么?
下层学习的特征不一定特定于您的 application/dataset:角、边、简单形状等。因此,您的数据是否严格属于原始网络类别的子集并不重要可以预测。
根据您有多少数据可用于训练,以及数据与预训练网络中使用的数据的相似程度,您可以决定冻结较低层并仅学习较高层,或者只是训练一个预训练网络之上的分类器。
检查 here 以获得更详细的答案