WebRTC iOS, 如何将视频通话静音
WebRTC iOS, how to mute video call
我正在 运行 在 iOS 上演示 WebRTC 应用程序。
但是 mute/unmute 没有像旧版 WebRTC 那样的示例。
我搜索并找到了这个
但是最新的源没有localStream。
它添加了音频轨道和视频轨道。
如果我将音轨 "isEnable" 设置为 FALSE。那么两个用户都听不到任何声音。
示例用户 A 和用户 B 正在通话中。
我想要的是如果用户A静音,那么只有用户B听不到声音。
感谢所有帮助
最新来源是什么意思? ARDAppClient 应该有添加本地流的音频和视频组件。
这是可行的解决方案:
static NSString * const kARDAudioTrackId = @"ARDAMSa0";
//Initialization part
_factory = [[RTCPeerConnectionFactory alloc] init];
RTCAudioTrack *_localAudioTrack = [_factory audioTrackWithSource:source
trackId:kARDAudioTrackId];
//For mute and unmute the local stream Audio
- (void)toggleAudioMute {
self.audioMute = !self.audioMute;
_localAudioTrack.isEnabled = !self.audioMute;
}
我正在 运行 在 iOS 上演示 WebRTC 应用程序。
但是 mute/unmute 没有像旧版 WebRTC 那样的示例。
我搜索并找到了这个
但是最新的源没有localStream。 它添加了音频轨道和视频轨道。 如果我将音轨 "isEnable" 设置为 FALSE。那么两个用户都听不到任何声音。
示例用户 A 和用户 B 正在通话中。 我想要的是如果用户A静音,那么只有用户B听不到声音。
感谢所有帮助
最新来源是什么意思? ARDAppClient 应该有添加本地流的音频和视频组件。
这是可行的解决方案:
static NSString * const kARDAudioTrackId = @"ARDAMSa0";
//Initialization part
_factory = [[RTCPeerConnectionFactory alloc] init];
RTCAudioTrack *_localAudioTrack = [_factory audioTrackWithSource:source
trackId:kARDAudioTrackId];
//For mute and unmute the local stream Audio
- (void)toggleAudioMute {
self.audioMute = !self.audioMute;
_localAudioTrack.isEnabled = !self.audioMute;
}