htk

    1热度

    1回答

    我的目标是通过HTK 3.4.1在OS X上做现场识别 首先,我做这件事是Ubuntu的10.0.4 。 我生成了声学和语言模型后,也需要它。 我执行此命令来进行实时识别。 HVite -H am/tiehmm2m_5/newMacros \ -C config/liverecog.config \ -w lm/dgs.wdnet \ config/dgs

    0热度

    1回答

    我试图使用htk工具包的HDMan命令,但却出现'致命'错误。 我的控制台看上去象下面这样: [email protected]:/host/Shekhar/htkWorld/trial_1$ ls beep dlog sentences (copy).txt sentences.txt~ try1.gram wlist dict monophones1 sentences.t

    0热度

    1回答

    问候研究员, 我拼命试图找到哪些文件,我将在HTK 3.4修改,这样我就可以直接读取音素/单音后probs的序列话语,并直接将其转发给解码器,给定了声学和语言模型。 更详细的,我正在关注包括第9步的HTK教程,我只是想在单声道上工作。我的(自己的,特定的)特征向量是具有每个音素的3个状态的概率的向量序列,这类似于 (p(aa_begin),p(aa_mid),p(aa_end),...,p (z_

    3热度

    1回答

    与this类似。由于我不想将语音数据传递给服务器,因此这可能会花费我更多的时间。我想知道是否可以使用HTK在Android应用程序本地识别语音数据,这样我就不需要将该音频传递给服务器。 Here可能是解决方案,但任何人都可以给我一个更详细的教程,如何使用android ndk构建HTK?谢谢!

    0热度

    1回答

    我已经尝试了几次编译和安装HTK,但我只是无法通过第5步! 当执行“make install的”(在“让所有”执行正确)我得到以下的输出: [email protected]:/bin/htk# make install (cd HTKTools && make all) \ || case "" in *k*) fail=yes;; *) exit 1;; esac; make[

    2热度

    1回答

    我已经使用HTK(隐马尔可夫模型工具包)识别来控制我的Android应用程序特定的命令 ,但在这种情况下,我需要一些语音数据传递到服务器,并且可能会消耗更多的时间。 为了防止这种延迟,我正考虑使用pocketsphinx在Android应用程序中本地识别语音数据,以便我不需要将该音频传递到服务器。 如果这是一个好主意,是很容易地从头学起pocketsphinx?此外,两种技术(基于服务器和本地语音

    1热度

    1回答

    我打算进行力校准,并按照HTK手册中的教程进行操作。 当我执行命令Hvite做力对齐, HVite -a -b sil -m -o SWT -I config/monophn.mlf -H am/hmm5/newMacros config/dgs.dict config/monophn.list mfc/0_1.mfc 我得到以下错误: ERROR [+8220] LatticeFromLab

    2热度

    1回答

    这个问题就解决了一ULAW编码SPH文件 我的任务: 我有以下的文件头一个.sph文件: NIST_1A conversation_id -s4 2001 database_id -s25总机 - 1_release-2.0 channel_count -i 1 sample_coding -s4 ULAW channels_interleaved -s4 TRUE sample_count -i

    -3热度

    1回答

    我试图在辅助窗口中运行我的应用程序,但默认情况下它将转至默认窗口。

    0热度

    1回答

    我有一些在线手写样本的x-y坐标,从中我正在计算一些统计参数,使用它我想制作一个基于HMM的识别器。 由于HMM工具包或HTK最初是用于语音识别,所以我无法理解如何使用HTK进行在线词汇识别。 可有人请帮助我了解如何给我的参数输入到该工具包,它会给输出什么?????