web-audio-api

    0热度

    1回答

    我目前使用网络音频API在JavaScript项目web音频API,但我的IDE(PhpStorm)不承认任何的它的功能: 所以我开始寻找一些库定义安装(在首选项/语言&框架/ JavaScript的/库),发现如下: https://github.com/DefinitelyTyped/DefinitelyTyped/tree/master/webaudioapi 但安装后,事情并没有得到任何改

    0热度

    1回答

    我正在研究需要连接到现有视频标签的项目来抓取音频,并对音频执行一些小操作。 var MyContext = new (window.AudioContext || window.webkitAudioContext)(); var source = MyContext.createMediaElementSource(video); audioScript = MyContext.cr

    5热度

    1回答

    我想实现一个ScriptProcessorNode有两个输入和一个输出通道。 var source = new Array(2); source[0] = context.createBufferSource(); source[0].buffer = buffer[0]; source[1] = context.createBufferSource(); source[1].buff

    0热度

    1回答

    我想将两个音频合并为一个,以便与客户端上的HTML5同步。我已经看到它与Web Audio API可以做很多事情,但我一直无法找到如何。 我有两个音频文件(.mp3,.wav ...)的链接,我想要的是同步这两个音频文件,如声音和歌曲。我不想让他们一个接一个,想要同步。 我会做所有的使用HTML5的客户端,而不需要使用服务器。这可能吗? 非常感谢您的帮助。

    6热度

    2回答

    我曾在几篇教程中看到在振荡器节点中使用.disconnect()之后的.stop()。 据我所知,振荡器节点是一次性的,所以当它停止并被扔掉时,它是不是也会断开连接? 我理解错了什么?为什么在.stop()之后需要使用.disconnect()?

    0热度

    1回答

    问题:我正在使用网络音频API。我需要缓冲一个不间断的音频流,比如无线电流。当我收到通知时,我需要获取过去3s的音频数据并将其发送到服务器。我怎么能做到这一点? nodejs有一个内置缓冲区,但它似乎不是一个循环缓冲区,如果我写入一个不间断的流,它似乎溢出。 帮助你理解我的问题的背景: 我正在实现基于环境音频的Web认证方法。简而言之,我需要比较两段音频信号(一个来自客户端,另一个来自主设备,它们

    0热度

    1回答

    我在这里找不到我的错误。我将soundcloud音轨连接到audioNode,并将其连接到biquadFilter,这样我就可以对其应用均衡。所有这一切都内的AngularJs应用 它的工作原理没有任何镀铬麻烦,但在Firefox和MS边缘我得到这个错误: Error: this.source.mediaElement is undefined [email protected]://l

    0热度

    1回答

    Here说Web音频API适用于Android的Chrome和here我已经测试了CM Browser,Chrome和CyanogenMod默认的Android 5.1.1浏览器,并且都通过了测试(特别是biquadNode之一)。 但是,当我用eq(biquadNode)打开this codepen时,我可以听到音乐但听不到eq的工作。 biquadNode在android中有效吗?任何特殊的实

    0热度

    1回答

    如果我的网络应用程序不是单页应用程序,我怎样才能建立一个音频播放器与音频播放器继续播放时分页。

    0热度

    1回答

    Web Audio API decodeAudioData audiocontext未解码ios的m4a文件,除了m4a文件解码safari浏览器中的所有文件。