如何在 Webrtc 中保存客户端的流帧?

How to save the stream frames at the client in Webrtc?

我正在使用 video conference implementation source code 使用 webrtc 和 nodejs。

我正在从服务器向客户端发送视频。我需要计算接收到的视频的 PSNR 以计算 objective 视觉质量。

我的顾虑是:

  1. 如何在客户端保存来自 HTML5 的视频组件的流帧?
  2. 如果(1)实现了,如何将原始帧映射到接收到的帧?

使用 MediaRecorder 录制音频和视频

我使用 MediaRecorder. Using MediaRecorder API 解决了这个问题,您可以启动和停止记录器,并在流数据到达时收集它们。

MediaStream 可以来自:

  • getUserMedia() 调用。
  • WebRTC 调用的接收端。
  • 录屏。

它支持以下 MIME 类型:

  • audio/webm
  • video/webm
  • video/webm;编解码器=vp8
  • video/webm;编解码器=vp9

following demo 证明了这一点并且代码也可用

第二个问题我还要解决!! 有映射本地和远程视频帧的想法吗?