2016-10-28 114 views
0

我正在使用重放套件来记录屏幕,当我正在使用webRTC SDK进行呼叫时,我想要实现的是使用音频记录或捕获屏幕。我使用了github的appRTC。如何在appRTC iOS中本地录制和保存RTCVideoTrack?

我想我可以通过AVCaptureSession来实现这个功能!因为我想排除replayKit 没有相关的代码提供。

回答

1

这是具有挑战性的,但它可以做到。我无法就此提供详细的答案,因为它对我们的应用程序来说非常核心,我们正在构建的东西以及它的代码很多,但希望它有助于了解它可以完成的工作。

一种你几个指针:

  1. 看看http://cocoadocs.org/docsets/chrome50_libjingle_peerconnection/1.0.50/Classes/RTCAVFoundationVideoSource.html这将让你访问的WebRTC使用AVCaptureSession,您可以AVAssetWriter成功挂接到这一点。
  2. 查看RTCVideoRenderer协议参考。 http://cocoadocs.org/docsets/Quickblox-WebRTC/2.2/Protocols/RTCVideoRenderer.html它将使您能够在WebRTC呈现它们并在发送它们回传给WebRTC之前处理它们。您需要将接收到的RTCI420Frame转换为CVPixelBufferRef(这是一个YUV420到RGB转换)。
+0

Tim Bull - 谢谢你的回应,我会做的就是研究它,尝试实现它,并返回到此线程的结果。 谢谢 –

+0

还有一件事,我会得到的框架是本地饲料或远程饲料? –

+0

在我们的案例中,我们抓取本地供稿,但如果您愿意,您也可以拦截远程供稿。 –