bounding box的位置和尺寸不对,如何提高准确率?
The bounding box's position and size is incorrect, how to improve it's accuracy?
我正在使用 detectron2 解决分割任务,
我正在尝试将一个对象分类为 4 类,
所以我使用了COCO-InstanceSegmentation/mask_rcnn_R_50_FPN_3x.yaml。
我应用了 4 种增强变换,训练后我得到大约 0.1
全损。
但由于某些原因,bbox 的准确性在测试集上的某些图像上不是很好,
bbox 绘制得更大或更小,或者没有覆盖整个对象。
此外,预测器有时会绘制很少的 bbox,它假设有很少的不同对象,尽管只有一个对象。
有什么提高准确性的建议吗?
有什么好的做法可以解决这个问题吗?
任何建议或参考 material 都会有所帮助。
我建议如下:
- 确保你的训练集包含你想要检测的所有大小的对象:这样,网络就会知道对象的大小可以不同并且不太容易过度拟合(检测器可以假设你的对象应该是例如只有大)。
- 添加数据。与其应用所有类型的增强,不如尝试添加更多数据。尽管只有一个对象,但检测到不同对象的现象使我相信您的网络不能很好地概括。我个人会选择每个 class.
至少 500 个注释
改进的最大一步将通过 (2) 实现。
一旦你有了一个不错的基线,你也可以尝试增强。
我正在使用 detectron2 解决分割任务, 我正在尝试将一个对象分类为 4 类, 所以我使用了COCO-InstanceSegmentation/mask_rcnn_R_50_FPN_3x.yaml。 我应用了 4 种增强变换,训练后我得到大约 0.1 全损。
但由于某些原因,bbox 的准确性在测试集上的某些图像上不是很好, bbox 绘制得更大或更小,或者没有覆盖整个对象。
此外,预测器有时会绘制很少的 bbox,它假设有很少的不同对象,尽管只有一个对象。
有什么提高准确性的建议吗?
有什么好的做法可以解决这个问题吗?
任何建议或参考 material 都会有所帮助。
我建议如下:
- 确保你的训练集包含你想要检测的所有大小的对象:这样,网络就会知道对象的大小可以不同并且不太容易过度拟合(检测器可以假设你的对象应该是例如只有大)。
- 添加数据。与其应用所有类型的增强,不如尝试添加更多数据。尽管只有一个对象,但检测到不同对象的现象使我相信您的网络不能很好地概括。我个人会选择每个 class. 至少 500 个注释
改进的最大一步将通过 (2) 实现。
一旦你有了一个不错的基线,你也可以尝试增强。