caffe SqueezeNet:为什么相评论?
caffe SqueezeNet: why phase commented?
我正在尝试使用 caffe SqueezeNet。有 2 个版本(SqueezeNet_v1.0 和 SqueezeNet_v1.1)。我注意到在 SqueezeNet_v1.1/train_val.prototxt (link) 层 "loss" 和 "accuracy" 阶段部分被注释:
layer {
name: "loss"
type: "SoftmaxWithLoss"
bottom: "pool10"
bottom: "label"
top: "loss"
#include {
# phase: TRAIN
#}
}
layer {
name: "accuracy"
type: "Accuracy"
bottom: "pool10"
bottom: "label"
top: "accuracy"
#include {
# phase: TEST
#}
}
谁能解释一下为什么? (另一个版本不是这种情况,即 SqueezeNet_v1.0 link)
通过评论阶段规范,您可以获得训练和测试期间的准确性和损失值。
与 SqueezeNet_v1.0 版本不同,评论允许查看训练集(实际上是当前训练批次)的准确性和 test/validation 集的总损失,这可能有助于控制网络是否过度拟合。
我正在尝试使用 caffe SqueezeNet。有 2 个版本(SqueezeNet_v1.0 和 SqueezeNet_v1.1)。我注意到在 SqueezeNet_v1.1/train_val.prototxt (link) 层 "loss" 和 "accuracy" 阶段部分被注释:
layer {
name: "loss"
type: "SoftmaxWithLoss"
bottom: "pool10"
bottom: "label"
top: "loss"
#include {
# phase: TRAIN
#}
}
layer {
name: "accuracy"
type: "Accuracy"
bottom: "pool10"
bottom: "label"
top: "accuracy"
#include {
# phase: TEST
#}
}
谁能解释一下为什么? (另一个版本不是这种情况,即 SqueezeNet_v1.0 link)
通过评论阶段规范,您可以获得训练和测试期间的准确性和损失值。
与 SqueezeNet_v1.0 版本不同,评论允许查看训练集(实际上是当前训练批次)的准确性和 test/validation 集的总损失,这可能有助于控制网络是否过度拟合。