使用 Tensorflow Object Detection API 创建的模型执行对象检测时,CNN 的图像输入大小是多少?

What is the input size of the image to CNN when performing object detection with the model created by Tensorflow Object Detection API?

我使用了 Tensorflow 对象检测 API (TF1) 并创建了 Faster R-CNN 的 frozen_inference_graph.pb 文件。 之后,我能够使用下面 GitHub 存储库中的“Object_detection_image.py”将对象检测应用于图像。

EdjeElectronics/TensorFlow-Object-Detection-API-Tutorial-Train-Multiple-Objects-Windows-10

当我使用这段代码时,Faster R-CNN 的图像输入尺寸有多大? 我将配置文件中“image_resizer {”的“min_dimension”和“max_dimension”都设置为 768。 当我执行对象检测时,Faster R-CNN 的图像输入大小是否会自动调整为这个大小? 我准备的图片大小是1920 x 1080像素,我想它已经调整到768 x 768像素了。

如果有人知道这件事,请告诉我。

谢谢!

假设您正在使用 Object_detection_image.py,您可以修改代码以打印出正在使用的图像的大小:

# ... 
image = cv2.imread(PATH_TO_IMAGE) 

# Add this after line 92:
height, width, channels = image.shape
print height, width, channels 

image_rgb = cv2.cvtColor(image, cv2.COLOR_BGR2RGB)
...