bounding box的位置和尺寸不对,如何提高准确率?

The bounding box's position and size is incorrect, how to improve it's accuracy?

我正在使用 detectron2 解决分割任务, 我正在尝试将一个对象分类为 4 类, 所以我使用了COCO-InstanceSegmentation/mask_rcnn_R_50_FPN_3x.yaml。 我应用了 4 种增强变换,训练后我得到大约 0.1 全损。

但由于某些原因,bbox 的准确性在测试集上的某些图像上不是很好, bbox 绘制得更大或更小,或者没有覆盖整个对象

此外,预测器有时会绘制很少的 bbox,它假设有很少的不同对象,尽管只有一个对象。

有什么提高准确性的建议吗?

有什么好的做法可以解决这个问题吗?

任何建议或参考 material 都会有所帮助。

我建议如下:

  1. 确保你的训练集包含你想要检测的所有大小的对象:这样,网络就会知道对象的大小可以不同并且不太容易过度拟合(检测器可以假设你的对象应该是例如只有大)。
  2. 添加数据。与其应用所有类型的增强,不如尝试添加更多数据。尽管只有一个对象,但检测到不同对象的现象使我相信您的网络不能很好地概括。我个人会选择每个 class.
  3. 至少 500 个注释

改进的最大一步将通过 (2) 实现。

一旦你有了一个不错的基线,你也可以尝试增强。