gstreamer OpenCV 从实时静止图像流式传输 MPEG
gstreamer OpenCV stream MPEG from live still images
在 Raspberry pi3 中,我有一个 c 程序,它使用 V4l2 驱动程序从 USB CAM (FLIR Boson) 抓取原始图像 8 位 YUY。
这些文件缓存在内存中并使用 imshow( , ) openCV 函数显示并以 9FPS 的帧率刷新,具有良好的质量和延迟。
您认为 gstreamer 可以在 c 程序中使用这些图像并将它们作为 MPEG 流传输吗?不确定 multifilesrc 是否可以使用新图像实时刷新。
其他方法,如 gst-launch-1.0 或 ffmpeg,可以直接从 v4l2 设备捕获,但质量很差且延迟不可接受。
非常感谢
Rgds
是的,当你已经有了获取原始图像数据的c代码时,你可以use appsrc or write your own GStreamer source element。
可能还有 v4l2src can be improved for your use case? Did you put a queue v4lsrc 之后的管道中的元素?
为什么要使用multifilesrc?考虑通过 udp 或 tcp 使用 RTP 流。
在 Raspberry pi3 中,我有一个 c 程序,它使用 V4l2 驱动程序从 USB CAM (FLIR Boson) 抓取原始图像 8 位 YUY。
这些文件缓存在内存中并使用 imshow( , ) openCV 函数显示并以 9FPS 的帧率刷新,具有良好的质量和延迟。 您认为 gstreamer 可以在 c 程序中使用这些图像并将它们作为 MPEG 流传输吗?不确定 multifilesrc 是否可以使用新图像实时刷新。
其他方法,如 gst-launch-1.0 或 ffmpeg,可以直接从 v4l2 设备捕获,但质量很差且延迟不可接受。
非常感谢 Rgds
是的,当你已经有了获取原始图像数据的c代码时,你可以use appsrc or write your own GStreamer source element。
可能还有 v4l2src can be improved for your use case? Did you put a queue v4lsrc 之后的管道中的元素?
为什么要使用multifilesrc?考虑通过 udp 或 tcp 使用 RTP 流。