我正在开发一款可记录用户音频的应用程序。对于录制音频,我使用getUserMedia API。音频的最大长度约为15分钟。我不想将它存储在缓存中。我通过直接流入节点js服务器来完成它。服务器对其进行流式处理并进行编码,以便生成一个mp3文件。这是通过这样的事情完成的。使用webRTC通过麦克风录制声音
var encoder;
var lame = require('lame');
var fs = require('fs');
var encodeAudio = function (data) {
// my own logic here ---- >
// Encode audio is below
encoder = lame.Encoder({
channels: 2,
bitDepth: 16,
sampleRate: 22050,
bitRate: 128,
outSampleRate: 22050,
mode: lame.STEREO
});
encoder.pipe(fs.createWriteStream('/tmp/' + data.name + '/audio.mp3'));
}
encoder.write(new Buffer(data.buffer), function() {
});
}
};
客户机端
navigator.getUserMedia = (navigator.getUserMedia ||
navigator.webkitGetUserMedia ||
navigator.mozGetUserMedia ||
navigator.msGetUserMedia);
navigator.getUserMedia({audio: true, video: false}, function (stream) {
var audioContext = window.AudioContext;
var context = new audioContext();
window.audioInput = context.createMediaStreamSource(stream);
var bufferSize = 2048;
var recorder = context.createScriptProcessor(bufferSize, 1, 1);
recorder.onaudioprocess = self.onAudioProcess.bind(self);
audioInput.connect(recorder);
recorder.connect(context.destination);
}, this.onAudioError);
在这里,数据被从socket.io从客户端发送的。因此,无论何时从客户端发送大量音频,nodejs服务器都会创建缓冲区并将其保存为mp3。
现在我听说了WebRTC及其功能。但它不适用于Safari和IE。然后,我通过Temasys插件使WebRTC与Safari和IE兼容。但是由于Temasys不支持录音,我感到困惑。有人可以指导如何做到这一点?
你有没有试过['MediaRecorder'](https://developer.mozilla.org/en-US/docs/Web/API/MediaRecorder)? – jib