我已经能够在其中找到确切地描述这个演示幻灯片:here
正常使用的API是处理实时音频。相反,我们可以预先处理的声音通过整个系统,并得到的结果是:
唯一的问题是,我的音频API的理解过于简单,看看有什么“绝招”是从代码示例:
var sampleRate = 44100.0;
var length = 20; // seconds
var ctx = new webkitAudioContext(2, sampleRate * length, sampleRate);
ctx.oncomplete = function(e) {
var resultAudioBuffer = e.renderedBuffer;
...
};
function convolveAudio(audioBuffer, audioBuffer2) {
var source = ctx.createBufferSource();
var convolver = ctx.createConvolver();
source.buffer = audioBuffer;
convolver.buffer = audioBuffer2;
// source -> convolver -> destination.
source.connect(convolver);
convolver.connect(ctx.destination);
source.noteOn(0);
ctx.startRendering();
}
但我认为它会更好,至少分享这不是离开它完全,即使这不正是我希望能给出答案。
三年来你学到了多少东西,现在在这个答案上得到了赞赏,现在看起来像是孩子的游戏:)。 – 2016-07-06 08:56:23