从缓冲区播放声音

时间:2013-11-10 19:44:52

标签: javascript html5 api buffer microphone

我正在尝试构建一个实时语音呼叫应用程序。我的目标是使用本机JS麦克风api并通过websocket将数据发送到其他客户端。我想出了以下代码:

<script>
// Globals
var aCtx;
var analyser;
var microphone;

navigator.getUserMedia_ = (   navigator.getUserMedia
                           || navigator.webkitGetUserMedia 
                           || navigator.mozGetUserMedia 
                           || navigator.msGetUserMedia);

if (navigator.getUserMedia_) {
    navigator.getUserMedia_({audio: true}, function(stream) {
        aCtx = new webkitAudioContext();
        analyser = aCtx.createAnalyser();
        microphone = aCtx.createMediaStreamSource(stream);
        microphone.connect(analyser);
        process();
    });
};
function process(){
    console.log(analyser);
    setInterval(function(){
        FFTData = new Float32Array(analyser.frequencyBinCount);
        analyser.getFloatFrequencyData(FFTData);

        console.log(FFTData); // display
    },10);
}

</script>

所以每隔10ms我就会得到缓冲区并通过节点发送它。问题是我无法弄清楚如何播放缓冲区,我甚至不确定我是否以正确的方式获得缓冲区。我试过了:

var source = audioContext.createBufferSource();
var buffer; // the result printed in the code below
var audioBuffer = audioContext.createBuffer(1, buffer.length, 44100);
audioBuffer.getChannelData(0).set(buffer);
source.buffer = audioBuffer;
source.connect(audioContext.destination);

我的缓冲区是否合适?我该怎么玩呢?

1 个答案:

答案 0 :(得分:4)

要发出缓冲区的播放,您必须调用AudioBufferSourceNode实例上的start method。这里的问题是:您想要播放音频流,AudioBuffer不是为此而设计的。如果你不断创建AudioBuffer个对象,用数据填充它们并将它们提供给你的AudioBufferSourceNode实例,那么声音肯定会有明显的暂停。

你应该保留一个缓存缓冲区,一旦数据到达就填满它并以正常速度清空它(不是立即,你必须等待它有足够的毫秒音频)。

执行此操作的最佳方法是使用提供的正确API:查看http://www.w3.org/TR/webaudio/#MediaStreamAudioDestinationNode-sectionhttp://www.w3.org/TR/webaudio/#MediaStreamAudioSourceNode-section