我有一台服务器通过websocket发送原始音频块。我们的想法是检索并播放它们,以尽可能平滑播放。 这里是代码最重要的一块: ws.onmessage = function (event) {
var view = new Int16Array(event.data);
var viewf = new Float32Array(view.length);
audio
停止所有预定的声音所以我有一堆,我在下面的代码中调用时间表功能加载音频采样: let audio;
function playChannel() {
let audioStart = context.currentTime;
let next = 0;
for(let i = 0; i < 8; i++) {
scheduler(audioStart
完整的问题:为什么更适合使用MediaElementAudioSourceNode而不是AudioBuffer来获得更长的声音? From MDN:这些类型的 对象被设计成保持小音频片段,典型地小于45秒。对于更长的声音,实现MediaElementAudioSourceNode的对象更合适。 From the specification: 此接口表示驻留在内存中的音频资产(用于一次性的声音和其他