为什么从模型生成的边界框保存的图像与原始图像相比分辨率低得多

Why does an image saved from the bounding box produced from a model have much lesser resolution compared to the original image

我已经使用 Tensorflow 对象检测 api 训练了 faster_rcnn_resnet50 模型。我已经为大小为 (1366,768) 的图像训练模型,并且在测试时使用相同的大小。但是,当我将边界框的内容另存为单独的图像时,我观察到图像尺寸减小到 (250,50),这是一个非常显着的下降。发生这种情况有原因吗?

预测图像:(1366,768) dimension image from test set
边界框另存为图像 image dimension becomes (250,50)

我在最后一个单元格下方添加以下代码行object_detection_tutorial.ipynb以将边界框内的区域保存为新图像

img = cv2.imread(image_path)
box = np.squeeze(boxes)
for i in range(len(boxes)):
    ymin = (int(box[i,0]*height))
    xmin = (int(box[i,1]*width))
    ymax = (int(box[i,2]*height))
    xmax = (int(box[i,3]*width))
    roi = img[ymin:ymax,xmin:xmax].copy()
    cv2.imwrite('path/engine_box_{}.jpg'.format(str(count)), roi)

边界框是包含模型检测到的对象的区域,当然,它的大小会比原始图像小很多。您的期望是什么?