AVAudioEngine就是为此而走的路。从苹果公司的文档:
- 播放和单轨的记录,使用AVAudioPlayer和AVAudioRecorder。
- 对于更复杂的音频处理,请使用AVAudioEngine。 AVAudioEngine包括用于音频输入和输出的AVAudioInputNode和AVAudioOutputNode。您还可以使用处理AVAudioNode对象和混合效果到您的音频
我会很直接跟你:AVAudioEngine是模糊的文件,很少-有用的错误消息极其挑剔的API,几乎没有在线代码示例演示的不仅仅是最基本的任务。 但是如果你花时间来克服小的学习曲线,你可以相对容易地做一些神奇的事情。
我已经建立了一个简单的“游乐场”观点,同时演示了麦克风和音频文件采样协同工作控制器:
import UIKit
class AudioEnginePlaygroundViewController: UIViewController {
private var audioEngine: AVAudioEngine!
private var mic: AVAudioInputNode!
private var micTapped = false
override func viewDidLoad() {
super.viewDidLoad()
configureAudioSession()
audioEngine = AVAudioEngine()
mic = audioEngine.inputNode!
}
static func getController() -> AudioEnginePlaygroundViewController {
let me = AudioEnginePlaygroundViewController(nibName: "AudioEnginePlaygroundViewController", bundle: nil)
return me
}
@IBAction func toggleMicTap(_ sender: Any) {
if micTapped {
mic.removeTap(onBus: 0)
micTapped = false
return
}
let micFormat = mic.inputFormat(forBus: 0)
mic.installTap(onBus: 0, bufferSize: 2048, format: micFormat) { (buffer, when) in
let sampleData = UnsafeBufferPointer(start: buffer.floatChannelData![0], count: Int(buffer.frameLength))
}
micTapped = true
startEngine()
}
@IBAction func playAudioFile(_ sender: Any) {
stopAudioPlayback()
let playerNode = AVAudioPlayerNode()
let audioUrl = Bundle.main.url(forResource: "test_audio", withExtension: "wav")!
let audioFile = readableAudioFileFrom(url: audioUrl)
audioEngine.attach(playerNode)
audioEngine.connect(playerNode, to: audioEngine.outputNode, format: audioFile.processingFormat)
startEngine()
playerNode.scheduleFile(audioFile, at: nil) {
playerNode .removeTap(onBus: 0)
}
playerNode.installTap(onBus: 0, bufferSize: 4096, format: playerNode.outputFormat(forBus: 0)) { (buffer, when) in
let sampleData = UnsafeBufferPointer(start: buffer.floatChannelData![0], count: Int(buffer.frameLength))
}
playerNode.play()
}
// MARK: Internal Methods
private func configureAudioSession() {
do {
try AVAudioSession.sharedInstance().setCategory(AVAudioSessionCategoryPlayAndRecord, with: [.mixWithOthers, .defaultToSpeaker])
try AVAudioSession.sharedInstance().setActive(true)
} catch { }
}
private func readableAudioFileFrom(url: URL) -> AVAudioFile {
var audioFile: AVAudioFile!
do {
try audioFile = AVAudioFile(forReading: url)
} catch { }
return audioFile
}
private func startEngine() {
guard !audioEngine.isRunning else {
return
}
do {
try audioEngine.start()
} catch { }
}
private func stopAudioPlayback() {
audioEngine.stop()
audioEngine.reset()
}
}
音频样本通过installTap的完成处理程序给你哪些随着音频实时通过轻敲节点(麦克风或音频文件播放器)而不断被调用。您可以通过索引我在每个块中创建的sampleData指针来访问单个样本。
你可以先看看苹果自己的例子。它们可能在Objective-C中,但API没有改变。 在任何情况下,所有的vDSP_xx函数都有一个C API,并且实际上,您的项目的分析部分可能需要用C或C++编写(顺便说一句,苹果工程师在今年WWDC上的建议是编写音频处理/渲染处理程序)。 至于音频指纹识别,这是一个不平凡的问题,也是SO的板子。 – marko
你有什么发现? – hoangpx