2015-11-03 97 views
0

目标是将WebRTC音频处理模块代码集成到iOS中,以便在我的应用程序中使用。我遇到了一大堆问题,如构建WebRTC音频处理代码仅适用于iOS

  1. ASM代码文件需要删除,而不是编译。如果我有一个问题,甚至试图测试它:https://stackoverflow.com/questions/33150058/using-webrtc-c-classes-in-objective-c-gives-exc-bad-access
  2. 似乎有几个引用线程功能,这让我很紧张,我的应用程序将如果我尝试使用它们,会崩溃。

我已经有很少的经验可以使它在C++ for x86_64处理器上工作。使这个模块在iOS设备上正常工作并在Xcode中编译的步骤是什么?

+0

的WebRTC为iOS是伤的袋子。我设法根据[WebRTC网站](http://www.webrtc.org/native-code/ios) – tagyro

+0

的指示编译它(全部)[编译WebRTC for iOS是非常容易的这些真棒人](http://tech.pristine.io/automated-webrtc-building/) – Kevin

回答

0

有几种方法可以为iOS编译WebRTC API。到目前为止,最简单的方法是安装cocoapods和使用:

pod "libjingle_peerconnection" 

另一种方式是自己做的,使用provided guidelines。这可能有点棘手,但它的优点是能够在编译之前修补代码以满足您的需求。看到你最终只需要音频处理模块,我会说这是你的选择。

第三个选项是使用各种可用的SDK中的一种为您实现底层WebRTC代码。他们的缺点通常是他们不是免费的。

+0

在使用pod提供的第一个选项中编译WebRTC API代码是否还会为音频处理模块提供访问和头文件? –

+0

@mikealeonetti我不确定,我需要不时编辑源文件。我认为你只能得到头文件+ lib,但是源代码非常大... – Kevin

+0

的确如此。对于第二种选择,我可以修改整个代码,如果有必要,你会说。我只需要按原样访问音频处理API。因此,如果我有我需要的功能访问权,也许第一种选择可能是最好的。我会给它一个镜头。 –

0

您应该使用目录src/webrtc/build/ios/build_ios_libs.sh下的生成脚本来编译WebRTC-ios源代码库。按照官方指南设置构建环境并运行构建脚本。然后你可以通过目录src/out_ios_libs下的webrtc-ios找到所有库,在这里你可以找到你需要的音频处理库。 找到具体的标题和* .a你需要链接到你的应用程序。

这里是的WebRTC网站:https://webrtc.org/