在训练目标检测模型(如 Faster R CNN、YOLO 和 SSD)期间锚框大小是否得到改进?
Do anchor box size gets refined during training object detection models like Faster R CNN,YOLO and SSD?
我正在学习,工作对象检测模型 Faster R CNN、YOLOv3 和 SSD.I 对锚框尺寸细化感到困惑。
当然,anchor box是在训练的时候细化的。这是网络学习预测准确框并纠正任何定位错误的唯一方法。网络学习 offsets
来细化锚框的形状和大小。
您可以详细了解锚框的工作原理here
当然,anchor boxes 的大小(和位置)在训练过程中会得到改进。正如您在评论中所说,锚框只不过是输出网格上固定位置的一组参考框。每个网格单元还预测对象度得分以及边界框的标签和精确坐标。
这些最后的坐标对应于您正在谈论的框尺寸细化。这种回归的实现因网络(SSD、Yolo、Faster-RCNN 等)而异。
我鼓励你阅读文献,尤其是非常清晰的Yolo论文。在“YOLO9000: Better, Faster, Stronger”(可在线免费获取)中,边界框优化在第 3 页有非常详细的解释。
当然这些都是在训练中学到的,看一下“You Only Look Once: Unified, Real-Time Object Detection”论文第4页中Yolo的损失函数
我正在学习,工作对象检测模型 Faster R CNN、YOLOv3 和 SSD.I 对锚框尺寸细化感到困惑。
当然,anchor box是在训练的时候细化的。这是网络学习预测准确框并纠正任何定位错误的唯一方法。网络学习 offsets
来细化锚框的形状和大小。
您可以详细了解锚框的工作原理here
当然,anchor boxes 的大小(和位置)在训练过程中会得到改进。正如您在评论中所说,锚框只不过是输出网格上固定位置的一组参考框。每个网格单元还预测对象度得分以及边界框的标签和精确坐标。
这些最后的坐标对应于您正在谈论的框尺寸细化。这种回归的实现因网络(SSD、Yolo、Faster-RCNN 等)而异。
我鼓励你阅读文献,尤其是非常清晰的Yolo论文。在“YOLO9000: Better, Faster, Stronger”(可在线免费获取)中,边界框优化在第 3 页有非常详细的解释。
当然这些都是在训练中学到的,看一下“You Only Look Once: Unified, Real-Time Object Detection”论文第4页中Yolo的损失函数