core-audio

    0热度

    1回答

    有一件事我不明白MusicDeviceMIDIEvent。在我见过的每个例子中(搜索Github和Apple例子),它总是在主线程中使用。现在,为了使用样本偏移参数文档状态: inOffsetSampleFrame: 如果是从音频单元的渲染线程调度的MIDI事件,那么你可以提供一个 样本偏移音频单元可以在下一个音频单元渲染中应用该事件时应用。 这允许您安排样本,应用MIDI命令的时间,特别是在开始

    2热度

    1回答

    我在OS X上使用与音频超能力图表混响效果 我做的是通过在输出音频单元的渲染回调调用reverb->process(上kAudioUnitSubType_SystemOutput测试使用和kAudioUnitSubType_DefaultOutput)。 混响效果奏效,但结果音频非常嘈杂。我尝试过不同的东西(调整采样率,使用额外的和归零的缓冲区等),但似乎没有帮助。有什么方法可以解决这个问题吗?谢

    0热度

    1回答

    我正在iOS中做转录应用。所以,我必须将音频记录在缓冲区中,并通过套接字将它们传输到服务器。所以,我用AudioQueue将音频录制在缓冲区中。 音频正在本地文件中正确记录。对于流媒体,我将音频数据转换为NSData并通过套接字发送。但是,服务器中的音频质量并不好,尤其是语音不清晰。它包含很多声音的地方的噪音。同样的逻辑在Android中正常工作。所以,服务器端代码工作正常。但是,iOS流式转换是

    0热度

    1回答

    创建第3版AudioUnit的示例代码演示了实现如何返回用于渲染处理的功能块。该块将通过pullInputBlock从链中的前一个 AxudioUnit中获取样本,并向输出缓冲区提供处理后的样本。如果单位下游的单位没有,它也必须提供一些输出缓冲区。下面是代码的AudioUnit子类的摘录: - (AUInternalRenderBlock)internalRenderBlock { /*

    1热度

    1回答

    AVAudioEngine和相关的AVAudioNode对象似乎对音频处理非常强大,但很难看出如何使用它们自动化参数更改。作为一个粗略的例子,我确定必须有一些比手动使用Timer来更改值更有效的方法。 AVMutableAudioMixInputParameters包括一个方法setVolumeRampFromStartVolume:toEndVolume:timeRange:,但我看不出如何将它

    3热度

    1回答

    我有一个关于CoreAudio和AVFoundation的问题。 我使用带有AUGraph和AudioUnit的CoreAudio构建了专业音频应用程序。 我想切换到AVFoundation框架,这似乎是非常棒的。但由于我担心表演,我想多了解一点。 在我的核心音频渲染回调中,我可以用44100kHz的采样率处理512个采样,所以我的回调每10ms调用一次,我认为它可以很容易地加快(对吗?)。 现在

    1热度

    1回答

    我正在查询osx中所有活动的输入设备,然后尝试使用AudioUnit通过蓝牙设备播放音频(如果已连接)。 我有一个蓝牙设备,返回一个UID和设备名称,但未能返回设备制造商(kAudioObjectPropertyManufacturer)。 在阅读Apple文档时,我看到The unique vendor identifier, registered with Apple, for the aud

    2热度

    1回答

    我在Xcode 9编程 - SWIFT 4 - MacOS的不IOS 下面我有一个基本的录音音频设置用于记录与耳机和麦克风的歌手。我希望它能像逻辑X一样反应。 在逻辑X中,您将要录制的音轨放入录音准备就绪,而发生此情况时,麦克风会路由至耳机,因此主唱可以听到自己的声音。在播放时,准备好的录音静音,主唱可以在这里录制。并且如果在回放期间按下了录音按钮,则主唱听到正在录制的人声。 我遇到的问题是将音频

    4热度

    1回答

    在苹果的文档用于创建AUAudio单元(这里:https://developer.apple.com/documentation/audiotoolbox/auaudiounit/1387570-initwithcomponentdescription) 他们声称 单个音频单元的子类可以实现多个音频单元,例如,一个也可以作为一个发电机作用,或一组相关的效果。 有没有这个在线的例子,我可以找到。理想

    2热度

    1回答

    我试图连接到Spotify流并使用自定义合成器修改输出。这将是很好的使用真棒AudioKit。为了改变输出Spotify流,我必须实现这个method,它使我能够访问spotify的AUGraph。然后,我可以添加将连接到spotify图形的输入和输出的AUNodes(它非常好地描述为here)。 据我所知,AudioKit在内部使用CoreAudio,但我还没有找到任何方式如何访问底层AUNod