如何从 node.js 中的连续图像流创建 MediaStream 轨道? (与 WebRTC 一起使用)
How can I create a MediaStream track from a continuous stream of images in node.js? (for usage with WebRTC)
我想从网络媒体元素流式传输机器人摄像头。我可以访问 node.js 中的摄像头,它提供实时图像流(持续以 ~20fps 的速度生成新帧)。
在浏览器中的相同情况下,可以将图像写入 canvas 并捕获流。
有没有什么方法可以构建一个可以直接添加到 RTCPeerConnection 的 MediaStreamTrack 对象,而不必使用仅限浏览器的 captureStream
或 getUserMedia
API?
我已经尝试了 npm 模块 canvas
,它应该将 canvas
移植到节点——然后也许我可以在将图像写入它之后捕获 canvas 的流。但这没有用。
我正在使用带有 simple-peer
包装器的 wrtc
节点 WebRTC 模块。
在此处查看 video-compositing
示例。
我想从网络媒体元素流式传输机器人摄像头。我可以访问 node.js 中的摄像头,它提供实时图像流(持续以 ~20fps 的速度生成新帧)。
在浏览器中的相同情况下,可以将图像写入 canvas 并捕获流。
有没有什么方法可以构建一个可以直接添加到 RTCPeerConnection 的 MediaStreamTrack 对象,而不必使用仅限浏览器的 captureStream
或 getUserMedia
API?
我已经尝试了 npm 模块 canvas
,它应该将 canvas
移植到节点——然后也许我可以在将图像写入它之后捕获 canvas 的流。但这没有用。
我正在使用带有 simple-peer
包装器的 wrtc
节点 WebRTC 模块。
在此处查看 video-compositing
示例。