Caffe 准确率大于 100%
Caffe accuracy bigger than 100%
我正在构建一个,但是当我使用 lenet example 上提供的自定义训练函数且批量大小大于 110 时,我的准确度会大于 1 (100%)。
如果我使用批量大小 32,我得到 30% 的准确率。批量大小等于 64 我的净准确度是 64。批量大小等于 128,准确度是 1.2。
我的图片是 32x32。
训练数据集:56 张中性面孔图像。 60 张令人惊讶的面孔图像。测试数据集:15 张中性人脸图像。 15 张令人惊讶的面孔图像。
这是我的代码:
def train(solver):
niter = 200
test_interval = 25
train_loss = zeros(niter)
test_acc = zeros(int(np.ceil(niter / test_interval)))
output = zeros((niter, 32, 2))
for it in range(niter):
solver.step(1)
train_loss[it] = solver.net.blobs['loss'].data
solver.test_nets[0].forward(start='conv1')
output[it] = solver.test_nets[0].blobs['ip2'].data[:32]
if it % test_interval == 0:
print 'Iteration', it, 'testing...'
correct = 0
for test_it in range(100):
solver.test_nets[0].forward()
correct += sum(solver.test_nets[0].blobs['ip2'].data.argmax(1) == solver.test_nets[0].blobs['label'].data)
test_acc[it // test_interval] = correct / 1e4
那么,我的代码有什么问题?
在您的测试代码中,您 运行 100 次迭代 (for test_it in range(100)
),在每次迭代中,您计算 correct
作为 批处理 [=24] 中的示例数=] 是正确的。然后将该数字除以 1e4。
让我们假设您的模型非常好并且具有几乎 100% 的预测率。然后,在 100 次迭代中,每一次迭代的批量大小为 32,您将向 correct
添加 32,得到 3200。然后将其除以 1e4,最后得到 0.32,这与您看到的几乎一致(您的数字略微更少,因为有时您的模型确实会错误预测目标)。
要修复它,您可以替换
test_acc[it // test_interval] = correct / 1e4
和
test_acc[it // test_interval] = correct / (100.0 * batch_size)
我正在构建一个,但是当我使用 lenet example 上提供的自定义训练函数且批量大小大于 110 时,我的准确度会大于 1 (100%)。
如果我使用批量大小 32,我得到 30% 的准确率。批量大小等于 64 我的净准确度是 64。批量大小等于 128,准确度是 1.2。
我的图片是 32x32。 训练数据集:56 张中性面孔图像。 60 张令人惊讶的面孔图像。测试数据集:15 张中性人脸图像。 15 张令人惊讶的面孔图像。
这是我的代码:
def train(solver):
niter = 200
test_interval = 25
train_loss = zeros(niter)
test_acc = zeros(int(np.ceil(niter / test_interval)))
output = zeros((niter, 32, 2))
for it in range(niter):
solver.step(1)
train_loss[it] = solver.net.blobs['loss'].data
solver.test_nets[0].forward(start='conv1')
output[it] = solver.test_nets[0].blobs['ip2'].data[:32]
if it % test_interval == 0:
print 'Iteration', it, 'testing...'
correct = 0
for test_it in range(100):
solver.test_nets[0].forward()
correct += sum(solver.test_nets[0].blobs['ip2'].data.argmax(1) == solver.test_nets[0].blobs['label'].data)
test_acc[it // test_interval] = correct / 1e4
那么,我的代码有什么问题?
在您的测试代码中,您 运行 100 次迭代 (for test_it in range(100)
),在每次迭代中,您计算 correct
作为 批处理 [=24] 中的示例数=] 是正确的。然后将该数字除以 1e4。
让我们假设您的模型非常好并且具有几乎 100% 的预测率。然后,在 100 次迭代中,每一次迭代的批量大小为 32,您将向 correct
添加 32,得到 3200。然后将其除以 1e4,最后得到 0.32,这与您看到的几乎一致(您的数字略微更少,因为有时您的模型确实会错误预测目标)。
要修复它,您可以替换
test_acc[it // test_interval] = correct / 1e4
和
test_acc[it // test_interval] = correct / (100.0 * batch_size)