audioqueue

    2热度

    1回答

    我想不通,为什么下面的回报OSStatus -10851: status = AudioUnitSetProperty(*audioUnit, kAudioUnitProperty_StreamFormat, kAudioUnitScope_Output, kInputBus, &outFormat, sizeof(o

    1热度

    1回答

    我正在处理一个应用程序,我想将原始数据(文本数据)发送到耳机插孔而不是音频文件。我假设我可以通过使用AudioQueue框架来实现。但我不知道该怎么做。我的应用程序应该与squareup.com应用程序的功能相同。

    3热度

    1回答

    用于音频队列服务的文档OS 10.6下现在包括一个音调参数: kAudioQueueParam_Pitch 美分,音高移位音频队列的播放的数量,范围-2400through 2400美分(其中1200美分对应于一个音乐八度音。) 只有启用时间/音高处理器时,此参数才可用。 同一文档的其他部分仍然说,音量是唯一可用的参数,而且我找不到任何对上述时间/音高处理器的引用。 有谁知道这是指什么?直接向参数

    1热度

    1回答

    我使用AUdioQueue从内置麦克风录制音频并通过套接字发送,我已经设置了AudioQueue缓冲区来记录缓冲区,例如30秒的缓冲区,并适当分配bufferSize , 这是我用来设置AudioDataFormat的功能。 AudioStreamBasicDescription sRecordFormat; FillOutASBDForLPCM (sRecordFormat,

    0热度

    1回答

    在我的应用程序中,我将通过线性PCM格式的套接字接收音频数据,时间间隔统一,约为50 ms, 我使用AudioQueue播放音频数据我称为最从AudioQueue SpeakHere实施例的代码唯一的区别是我需要在Mac OS运行它的, 以下是相关的一段代码, 设置AudioBufferDescription格式, FillOutASBDForLPCM (sRecordFormat,

    0热度

    1回答

    在我的申请,我将获得从Socket缓冲区,需要发挥它,应用程序将在大约每50毫秒接收缓冲区, 的方式我在做什么如下, 1 - 定义音频格式,它是如下面给出的, FillOutASBDForLPCM (sRecordFormat, 16000, 1, 16, 16, false, false

    2热度

    1回答

    我在我的应用程序中使用音频队列服务。当分配的缓冲区,我设置缓冲区的大小为30000个样品: AudioQueueAllocateBuffer(mQueue, 30000, &mBuffers[i]); 但回调的后续调用与以下inNumberPacketDescriptions由: 30000 30000 30000 26928 30000 30000 他们并不总是等于到30000

    1热度

    2回答

    我试图完成基本如下: 打开一个文件,确定我会用多少个“样品”需要根据其持续时间 将文件分成X个抽样;确定每个样品的(平均)功率水平/幅度。 利用这些样本值,继续绘制表示音频的波形(以下these guidelines,也许) 我花了三天左右,通过网上论坛,书籍和API与无济于事精心搜索。我被困在最关键的一步 - >确定音频块(缓冲区)的功率电平。 在阅读了大部分即将推出的Core Audio bo

    6热度

    3回答

    如果任何人有使用AudioQueue编码/解码Speex音频格式的经验? 我试图通过编辑SpeakHere示例来实现它。但不成功! 从apple API文档中,AudioQueue可以支持编解码器,但我找不到任何示例。任何人都可以给我一些建议吗?我已经在苹果的示例代码的XCode 4

    2热度

    1回答

    我正在做一种voip应用程序,所以我必须能够同时播放和录制声音。 但是,当我在同一时间播放和录制时,iphone的音量非常低。 我用 //kAudio UInt32 audioCategory = kAudioSessionCategory_PlayAndRecord; AudioSessionSetProperty(kAudioSessionProperty_Overri