WebRTC iOS 语音聊天
WebRTC iOS Audio Chat
我正在创建一个纯语音(无视频)聊天应用程序。我已经创建了我自己的 node.js/socket.io 基于服务器的信令。
对于 WebRTC,我使用以下 pod:https://cocoapods.org/pods/WebRTC
我已成功创建对等连接、添加本地流、设置 local/remote sdp 和 send/receive ice 候选。 "didAddStream" 委托方法也成功调用了音轨,但我被困在这里。我不知道我应该如何处理音轨。下一步应该做什么?我如何 send/receive 两边都有音频?
另外,如果我集成了CallKit,我需要做哪些改变。
我也卡在这个上面了。您必须保留 RTCMediaStream
对象才能播放音频。您无需对 RTCAudioTrack
进行任何操作,它会自动播放。我只是将它分配给 属性 以便它可以保留。在这里看我的例子:https://github.com/redfearnk/WebRTCVideoChat/blob/master/WebRTCVideoChat/WebRTCClient.swift#L143
我正在创建一个纯语音(无视频)聊天应用程序。我已经创建了我自己的 node.js/socket.io 基于服务器的信令。
对于 WebRTC,我使用以下 pod:https://cocoapods.org/pods/WebRTC
我已成功创建对等连接、添加本地流、设置 local/remote sdp 和 send/receive ice 候选。 "didAddStream" 委托方法也成功调用了音轨,但我被困在这里。我不知道我应该如何处理音轨。下一步应该做什么?我如何 send/receive 两边都有音频?
另外,如果我集成了CallKit,我需要做哪些改变。
我也卡在这个上面了。您必须保留 RTCMediaStream
对象才能播放音频。您无需对 RTCAudioTrack
进行任何操作,它会自动播放。我只是将它分配给 属性 以便它可以保留。在这里看我的例子:https://github.com/redfearnk/WebRTCVideoChat/blob/master/WebRTCVideoChat/WebRTCClient.swift#L143