如何在 Webrtc 中保存客户端的流帧?
How to save the stream frames at the client in Webrtc?
我正在使用 video conference implementation source code 使用 webrtc 和 nodejs。
我正在从服务器向客户端发送视频。我需要计算接收到的视频的 PSNR
以计算 objective 视觉质量。
我的顾虑是:
- 如何在客户端保存来自 HTML5 的视频组件的流帧?
- 如果(1)实现了,如何将原始帧映射到接收到的帧?
使用 MediaRecorder 录制音频和视频
我使用 MediaRecorder. Using MediaRecorder API 解决了这个问题,您可以启动和停止记录器,并在流数据到达时收集它们。
MediaStream 可以来自:
- getUserMedia() 调用。
- WebRTC 调用的接收端。
- 录屏。
它支持以下 MIME 类型:
- audio/webm
- video/webm
- video/webm;编解码器=vp8
- video/webm;编解码器=vp9
following demo 证明了这一点并且代码也可用
第二个问题我还要解决!!
有映射本地和远程视频帧的想法吗?
我正在使用 video conference implementation source code 使用 webrtc 和 nodejs。
我正在从服务器向客户端发送视频。我需要计算接收到的视频的 PSNR
以计算 objective 视觉质量。
我的顾虑是:
- 如何在客户端保存来自 HTML5 的视频组件的流帧?
- 如果(1)实现了,如何将原始帧映射到接收到的帧?
使用 MediaRecorder 录制音频和视频
我使用 MediaRecorder. Using MediaRecorder API 解决了这个问题,您可以启动和停止记录器,并在流数据到达时收集它们。
MediaStream 可以来自:
- getUserMedia() 调用。
- WebRTC 调用的接收端。
- 录屏。
它支持以下 MIME 类型:
- audio/webm
- video/webm
- video/webm;编解码器=vp8
- video/webm;编解码器=vp9
following demo 证明了这一点并且代码也可用
第二个问题我还要解决!! 有映射本地和远程视频帧的想法吗?