来自 OpenGL 的 WebRTC H264 视频直播(带 FFMPEG)
WebRTC H264 video live streaming (w FFMPEG) from OpenGL
我正在尝试制作一个点对点游戏流媒体平台。此时我设法捕获了 OpenGL 帧并且我有一个功能正常的 Java websockets 服务器,我可以有 2 个客户端建立对等连接(我已经解决了 STUN/TURN 服务器部分)并传输此时的文本。
我不太明白如何以低延迟(<100 毫秒)流式传输由 Opengl 帧制作的视频。问题主要出在 FFMPEG 部分,我想用它来编码帧,得到结果(stdin/stdout redirect for ffmpeg ?),不知何故 link 到 JS API主机(可能是主机的 JS 将连接到的本地 websocket)。
我用 stdin 和 stdout 管道尝试了几个 FFMPEG arguements/commands,但它们没有用。
您使用的是什么 WebRTC 客户端? H264直播码流流入什么?
浏览器中的 WebRTC 有一些限制(只是因为实现是天真的)。尝试做约束基线,并做一个非常小的关键帧间隔(每一秒通常对原型都有好处!)
如果您没有 WebRTC 客户端,您可以执行 webrtc-remote-screen
我正在尝试制作一个点对点游戏流媒体平台。此时我设法捕获了 OpenGL 帧并且我有一个功能正常的 Java websockets 服务器,我可以有 2 个客户端建立对等连接(我已经解决了 STUN/TURN 服务器部分)并传输此时的文本。
我不太明白如何以低延迟(<100 毫秒)流式传输由 Opengl 帧制作的视频。问题主要出在 FFMPEG 部分,我想用它来编码帧,得到结果(stdin/stdout redirect for ffmpeg ?),不知何故 link 到 JS API主机(可能是主机的 JS 将连接到的本地 websocket)。
我用 stdin 和 stdout 管道尝试了几个 FFMPEG arguements/commands,但它们没有用。
您使用的是什么 WebRTC 客户端? H264直播码流流入什么?
浏览器中的 WebRTC 有一些限制(只是因为实现是天真的)。尝试做约束基线,并做一个非常小的关键帧间隔(每一秒通常对原型都有好处!)
如果您没有 WebRTC 客户端,您可以执行 webrtc-remote-screen