MaskRCNN/YOLO 的性能作为对象大小(以像素为单位)的函数
Performance of MaskRCNN/YOLO as a function of object size in pixels
我正在尝试查找有关对象分辨率如何影响 MaskRCNN 和 YOLO 等对象检测系统正确识别对象的能力的参考资料。
例如,如果相机越来越远,构成物体的像素数量就会减少,最终物体将只占据一个像素。在这一点上,该算法只能使用该单个像素的值,因此即使是非常准确的算法也似乎不太可能进行检测。我希望找到关于性能如何随着每个对象的像素减少而降低的任何参考。
首先,我认为大多数目标检测论文中的实验结果都支持您的直觉,即较低的分辨率会导致较低的检测结果 accuracy/precision。比如你看Yolov3(table3)等物体检测论文实验结果中的AP-S, AP-M, AP-L
(*即小、中、大物体的平均精度),与 AP-M
和 AP-L
相比,您会注意到 AP-S
的大幅下降,尤其是一次性方法。
其次,我认为为您的主张获得一些实验支持的一个很好的起点是使用 coco 数据集并稍微修改 the cocoapi 附带的 cocoeval
脚本(如果我没记错,那些在 cocoapi/PythonAPI/pycocotools/)。正如文档所述,小型、中型和大型对象的默认值如下:
APsmall
AP for small objects: area < 32^2
APmedium
AP for medium objects: 32^2 < area < 96^2
APlarge
AP for large objects: area > 96^2
您可以从 32^2
开始循环小对象阈值并逐渐减小它直到达到某个最小区域,然后查看 AP-small
分数如何随着此函数而减小临界点。这可能会导致曲线下降,这将说明您的观点。
我正在尝试查找有关对象分辨率如何影响 MaskRCNN 和 YOLO 等对象检测系统正确识别对象的能力的参考资料。
例如,如果相机越来越远,构成物体的像素数量就会减少,最终物体将只占据一个像素。在这一点上,该算法只能使用该单个像素的值,因此即使是非常准确的算法也似乎不太可能进行检测。我希望找到关于性能如何随着每个对象的像素减少而降低的任何参考。
首先,我认为大多数目标检测论文中的实验结果都支持您的直觉,即较低的分辨率会导致较低的检测结果 accuracy/precision。比如你看Yolov3(table3)等物体检测论文实验结果中的AP-S, AP-M, AP-L
(*即小、中、大物体的平均精度),与 AP-M
和 AP-L
相比,您会注意到 AP-S
的大幅下降,尤其是一次性方法。
其次,我认为为您的主张获得一些实验支持的一个很好的起点是使用 coco 数据集并稍微修改 the cocoapi 附带的 cocoeval
脚本(如果我没记错,那些在 cocoapi/PythonAPI/pycocotools/)。正如文档所述,小型、中型和大型对象的默认值如下:
APsmall
AP for small objects: area < 32^2
APmedium
AP for medium objects: 32^2 < area < 96^2
APlarge
AP for large objects: area > 96^2
您可以从 32^2
开始循环小对象阈值并逐渐减小它直到达到某个最小区域,然后查看 AP-small
分数如何随着此函数而减小临界点。这可能会导致曲线下降,这将说明您的观点。