我正在做一个关于听觉和视觉感知(人类)之间关系的研究项目。我最终想要获得的将是帮助开发一种算法的知识,该算法将采用音频信号并将其转换为“感知匹配”可视化。Windows Media Player Music Visualiser算法
目前,我正在研究当前存在的可视化以及它们的工作方式。我想知道是否有人知道有关Windows Media Player Music Visualizer算法如何工作(或任何其他商业算法)的信息,它基于什么,音频信号的特征是什么,以及这些特征是否基于人类感知系统的模型?
任何帮助将不胜感激!
克里斯