如何使用 rtsp 和 live555 将 h.264 视频流式传输到 WOWZA
how to streaming h.264 video send to WOWZA using rtsp with live555
我是捕获视频的新手,在 h.264 中编码,WOWZA 服务器。
我已经检查了很多关于堆栈溢出和 google 的解决方案,但没有达到我可以使用的完美程度。
基本功能:
- 继续从 iPhone 捕获(视频应采用 h.264 编码)
- 使用 live555 库,生成 RTSP url
- 将相同的视频发送到 WOWZA 服务器进行直播视频
注意: 视频应从 iphone 设备在服务器上连续播放,没有重大延迟。
我的问题:
- 如何采集h.264编码的视频?
- 如何将 live555 库集成到 VideoCapture class 以生成 RTSP URL?
- 如何使用 RTSP 协议将该视频发送到 WOWZA?
为了在 ios 上捕获视频,我正在使用 AV Framework。
如果我的思路不对请指正
谢谢,
普尼塔
我已经在同一项目中成功编译了 MobileVLCKit 和 Live555 库。
解决方案:
- 我已经用相同的体系结构(armv7 和 armv7s)重新编译了两个库并生成了 DynamicFramework。
- 然后用于同一个 xcode 项目。
我是捕获视频的新手,在 h.264 中编码,WOWZA 服务器。
我已经检查了很多关于堆栈溢出和 google 的解决方案,但没有达到我可以使用的完美程度。
基本功能:
- 继续从 iPhone 捕获(视频应采用 h.264 编码)
- 使用 live555 库,生成 RTSP url
- 将相同的视频发送到 WOWZA 服务器进行直播视频
注意: 视频应从 iphone 设备在服务器上连续播放,没有重大延迟。
我的问题:
- 如何采集h.264编码的视频?
- 如何将 live555 库集成到 VideoCapture class 以生成 RTSP URL?
- 如何使用 RTSP 协议将该视频发送到 WOWZA?
为了在 ios 上捕获视频,我正在使用 AV Framework。
如果我的思路不对请指正
谢谢, 普尼塔
我已经在同一项目中成功编译了 MobileVLCKit 和 Live555 库。 解决方案:
- 我已经用相同的体系结构(armv7 和 armv7s)重新编译了两个库并生成了 DynamicFramework。
- 然后用于同一个 xcode 项目。