所以我试图建立鲍姆韦尔奇算法来为练习做词性标记。但是,我对使用隐马尔可夫模型与马尔科夫模型感到困惑。因为你似乎失去了从州到州的背景。由于在移动到下一个状态时不考虑最后状态的输出。只是为了节省内存吗?为什么在鲍姆韦尔奇算法中使用隐马尔可夫模型与马尔可夫模型
编辑:添加了一个例子,为了清楚起见
例如,如果两个状态,A和B输出0或1会有4个状态转换和2种obseravation可能性对于每个状态,其可以可被制成如果您将每对传入转换与其状态的迷惑概率混合,则会发生8次转换。但是我的挂断是为什么不开始训练带有16个转换的四状态{(A,1),(B,1),(A,2),(B,2)}的机器。我对nlp相当陌生,所以我想知道我是否不知道一些算法冗余,如果没有更难的数学就很难看出。
由于看起来人们失去了最后一个A为1和2时转换的信息,但我想知道训练算法是否可能不需要这些信息。
https://en.wikipedia.org/wiki/Baum%E2%80%93Welch_algorithm
感谢您的信息。
如果原始双态模型是四态模型的一个子集,那么对于任何一组双态模型参数,都有一种方法来设置四态模型的参数,使它的行为精确像双态模型一样,那么唯一的问题是,如果现实根据双态模型行为,那么您将需要更多的数据来以相同的精度拟合四态模型。您可以使用交叉验证或https://en.wikipedia.org/wiki/Likelihood-ratio_test来判断四态模型的额外参数是否有帮助。 – mcdowella