将视频中检测到的边界框的坐标写入 txt 或 csv 文件
Write the coordinates of detected bounding boxes in a video to a txt or csv file
所以我正在使用 darkflow 来检测视频中的对象(帽子)。它检测到戴帽子的人,并在视频中围绕帽子绘制边界框。现在我想将检测到的边界框的右上角和左下角坐标保存到 txt 或 csv 文件中以供进一步处理。我在opencv-python中写了代码。我可以显示视频并成功绘制边界框,但我不知道如何保存框的坐标。知道怎么做吗?
我正在使用 Mark jay 的代码
#import libraries
import cv2
from darkflow.net.build import TFNet
import numpy as np
import time
#load model and weights and threshold
option = {
'model': 'cfg/yolo-5c.cfg',
'load': 'bin/yolo.weights',
'threshold': 0.15,
'gpu': 1.0
}
tfnet = TFNet(option)
#open video file
capture = cv2.VideoCapture('videofile_1080_20fps.avi')
colors = [tuple(255 * np.random.rand(3)) for i in range(5)]
#read video file and set parameters for object detection
while (capture.isOpened()):
stime = time.time()
ret, frame = capture.read()
if ret:
results = tfnet.return_predict(frame)
for color, result in zip(colors, results):
tl = (result['topleft']['x'], result['topleft']['y']) # show top left coordinate
br = (result['bottomright']['x'], result['bottomright']['y']) #show bottom right coordinate
label = result['label'] # show label
frame = cv2.rectangle(frame, tl, br, color, 7)
frame = cv2.putText(frame, label, tl, cv2.FONT_HERSHEY_COMPLEX,
1, (0, 0, 0), 2)
cv2.imshow('frame', frame)
print('FPS {:.1f}'.format(1 / (time.time() - stime)))
if cv2.waitKey(1) & 0xFF == ord('q'):
break
else:
capture.release()
cv2.destroyAllWindows()
break
如您所见,我可以显示视频并检测绘制边界框的对象。现在我的目标是保存这些边界框的像素坐标,就是左上角和右下角的像素坐标。大家有什么想法吗?
您的代码中的'result'参数是一组坐标。您创建一个 list 并将其附加到 result
中的值,然后在您的 'else' 中将其写入 .txt 文件。
干杯!
所以我正在使用 darkflow 来检测视频中的对象(帽子)。它检测到戴帽子的人,并在视频中围绕帽子绘制边界框。现在我想将检测到的边界框的右上角和左下角坐标保存到 txt 或 csv 文件中以供进一步处理。我在opencv-python中写了代码。我可以显示视频并成功绘制边界框,但我不知道如何保存框的坐标。知道怎么做吗?
我正在使用 Mark jay 的代码
#import libraries
import cv2
from darkflow.net.build import TFNet
import numpy as np
import time
#load model and weights and threshold
option = {
'model': 'cfg/yolo-5c.cfg',
'load': 'bin/yolo.weights',
'threshold': 0.15,
'gpu': 1.0
}
tfnet = TFNet(option)
#open video file
capture = cv2.VideoCapture('videofile_1080_20fps.avi')
colors = [tuple(255 * np.random.rand(3)) for i in range(5)]
#read video file and set parameters for object detection
while (capture.isOpened()):
stime = time.time()
ret, frame = capture.read()
if ret:
results = tfnet.return_predict(frame)
for color, result in zip(colors, results):
tl = (result['topleft']['x'], result['topleft']['y']) # show top left coordinate
br = (result['bottomright']['x'], result['bottomright']['y']) #show bottom right coordinate
label = result['label'] # show label
frame = cv2.rectangle(frame, tl, br, color, 7)
frame = cv2.putText(frame, label, tl, cv2.FONT_HERSHEY_COMPLEX,
1, (0, 0, 0), 2)
cv2.imshow('frame', frame)
print('FPS {:.1f}'.format(1 / (time.time() - stime)))
if cv2.waitKey(1) & 0xFF == ord('q'):
break
else:
capture.release()
cv2.destroyAllWindows()
break
如您所见,我可以显示视频并检测绘制边界框的对象。现在我的目标是保存这些边界框的像素坐标,就是左上角和右下角的像素坐标。大家有什么想法吗?
您的代码中的'result'参数是一组坐标。您创建一个 list 并将其附加到 result
中的值,然后在您的 'else' 中将其写入 .txt 文件。
干杯!