使用 COCO 指标评估我的对象检测模型显示 0 和 -1 值
Evaluating my object detection model using COCO metric shows 0 and -1 values
我目前正在尝试解决对象检测问题,并决定为此使用更快的 RCNN。我关注了这个Youtube video and their Code。损失减少了,但最大的问题是无论我如何尝试,它都无法正确评估。我已经尝试查看输入,如果有任何类型的大小不匹配或缺少信息,但它仍然不起作用。它总是像这样为其所有指标显示 -1 和 0 值。
creating index...
index created!
Test: [0/1] eta: 0:00:08 model_time: 0.4803 (0.4803) evaluator_time: 0.0304 (0.0304) time: 8.4784 data: 7.9563 max mem: 7653
Test: Total time: 0:00:08 (8.6452 s / it)
Averaged stats: model_time: 0.4803 (0.4803) evaluator_time: 0.0304 (0.0304)
Accumulating evaluation results...
DONE (t=0.01s).
IoU metric: bbox
Average Precision (AP) @[ IoU=0.50:0.95 | area= all | maxDets=100 ] = 0.000
Average Precision (AP) @[ IoU=0.50 | area= all | maxDets=100 ] = 0.000
Average Precision (AP) @[ IoU=0.75 | area= all | maxDets=100 ] = 0.000
Average Precision (AP) @[ IoU=0.50:0.95 | area= small | maxDets=100 ] = 0.000
Average Precision (AP) @[ IoU=0.50:0.95 | area=medium | maxDets=100 ] = -1.000
Average Precision (AP) @[ IoU=0.50:0.95 | area= large | maxDets=100 ] = -1.000
Average Recall (AR) @[ IoU=0.50:0.95 | area= all | maxDets= 1 ] = 0.000
Average Recall (AR) @[ IoU=0.50:0.95 | area= all | maxDets= 10 ] = 0.000
Average Recall (AR) @[ IoU=0.50:0.95 | area= all | maxDets=100 ] = 0.000
Average Recall (AR) @[ IoU=0.50:0.95 | area= small | maxDets=100 ] = 0.000
Average Recall (AR) @[ IoU=0.50:0.95 | area=medium | maxDets=100 ] = -1.000
Average Recall (AR) @[ IoU=0.50:0.95 | area= large | maxDets=100 ] = -1.000
<coco_eval.CocoEvaluator at 0x7ff9989fea10>
这是我当前的代码:Colab notebook
我的标签有误。我通过尝试用它的标签绘制我的数据集图像来解决这个问题,我发现它要么没有显示标签,要么没有准确显示。
这个评价函数是基于COCO指标的。它评估所有大小的标签,因此对于 area=large 显示 -1.000。我目前的猜测是因为我的数据集没有不同大小的标签。它们大小相同,大小为 medium/small。我可能是错的。
我目前正在尝试解决对象检测问题,并决定为此使用更快的 RCNN。我关注了这个Youtube video and their Code。损失减少了,但最大的问题是无论我如何尝试,它都无法正确评估。我已经尝试查看输入,如果有任何类型的大小不匹配或缺少信息,但它仍然不起作用。它总是像这样为其所有指标显示 -1 和 0 值。
creating index...
index created!
Test: [0/1] eta: 0:00:08 model_time: 0.4803 (0.4803) evaluator_time: 0.0304 (0.0304) time: 8.4784 data: 7.9563 max mem: 7653
Test: Total time: 0:00:08 (8.6452 s / it)
Averaged stats: model_time: 0.4803 (0.4803) evaluator_time: 0.0304 (0.0304)
Accumulating evaluation results...
DONE (t=0.01s).
IoU metric: bbox
Average Precision (AP) @[ IoU=0.50:0.95 | area= all | maxDets=100 ] = 0.000
Average Precision (AP) @[ IoU=0.50 | area= all | maxDets=100 ] = 0.000
Average Precision (AP) @[ IoU=0.75 | area= all | maxDets=100 ] = 0.000
Average Precision (AP) @[ IoU=0.50:0.95 | area= small | maxDets=100 ] = 0.000
Average Precision (AP) @[ IoU=0.50:0.95 | area=medium | maxDets=100 ] = -1.000
Average Precision (AP) @[ IoU=0.50:0.95 | area= large | maxDets=100 ] = -1.000
Average Recall (AR) @[ IoU=0.50:0.95 | area= all | maxDets= 1 ] = 0.000
Average Recall (AR) @[ IoU=0.50:0.95 | area= all | maxDets= 10 ] = 0.000
Average Recall (AR) @[ IoU=0.50:0.95 | area= all | maxDets=100 ] = 0.000
Average Recall (AR) @[ IoU=0.50:0.95 | area= small | maxDets=100 ] = 0.000
Average Recall (AR) @[ IoU=0.50:0.95 | area=medium | maxDets=100 ] = -1.000
Average Recall (AR) @[ IoU=0.50:0.95 | area= large | maxDets=100 ] = -1.000
<coco_eval.CocoEvaluator at 0x7ff9989fea10>
这是我当前的代码:Colab notebook
我的标签有误。我通过尝试用它的标签绘制我的数据集图像来解决这个问题,我发现它要么没有显示标签,要么没有准确显示。
这个评价函数是基于COCO指标的。它评估所有大小的标签,因此对于 area=large 显示 -1.000。我目前的猜测是因为我的数据集没有不同大小的标签。它们大小相同,大小为 medium/small。我可能是错的。