2017-09-14 186 views
1

我正在创建仅语音(无视频)聊天应用程序。我已经创建了我自己的基于node.js/socket.io的信号服务器。WebRTC iOS音频聊天

实现WebRTC,我使用下面的吊舱:https://cocoapods.org/pods/WebRTC

我已经成功地建立对等连接,增加本地流,设置本地/远程SDP和发送/接收冰候选人。 “didAddStream”委托方法也被称为成功的音轨,但我在这里卡住了。我不知道我应该如何处理音轨。下一步应该是什么?我将如何发送/接收双方的音频?

另外,如果我整合了CallKit,我需要做些什么改变。

回答

1

我也被卡住了。您必须保留RTCMediaStream对象才能播放音频。你不需要对RTCAudioTrack做任何事情,它会自动播放。我只是将它分配给属性,以便它可以保留。看我的例子:https://github.com/redfearnk/WebRTCVideoChat/blob/master/WebRTCVideoChat/WebRTCClient.swift#L143

+0

是的,这就是我最终发现的。你不必做任何事情,音频将自动开始播放。 我打算在iOS本地应用程序(使用swift)中编写一个关于WebRTC的博客,其中包含与CallKit集成的独立Node.JS套接字服务器。 尽管非常感谢您的回答。 –

+0

好主意!我很想看到它 –