在阅读Cam Davidson-Pilon的Probabilistic Programming & Bayesian Methods for Hackers后,我决定尝试用隐马尔可夫模型(HMM)与PyMC学习问题。到目前为止,代码并不合作,但通过故障排除,我觉得我已经缩小了问题的根源。可以将“if”语句用于PyMC确定性函数吗?
将代码分解成更小的块并关注t = 0时的初始概率和发射概率,我可以在时间t = 0学习单个状态的发射/观测参数。但是,一旦我添加了另一个状态(对于总共两个状态),无论数据输入如何,参数学习的结果都是相同的(并且不正确)。所以,我觉得我必须在代码的@pm.deterministic
部分做错了,这不允许我从Init
初始概率函数中抽样。
随着码本部分中,我的目标学习初始概率p_bern
和发射概率p_0
和p_1
对应于状态0和1,分别。排放是以状态为条件的,这是我想用我的@pm.deterministic
函数表达的。我可以在这个确定性函数中拥有“if”语句吗?这似乎是问题的根源。
# This code is to test the ability to discern between two states with emissions
import numpy as np
import pymc as pm
from matplotlib import pyplot as plt
N = 1000
state = np.zeros(N)
data = np.zeros(shape=N)
# Generate data
for i in range(N):
state[i] = pm.rbernoulli(p=0.3)
for i in range(N):
if state[i]==0:
data[i] = pm.rbernoulli(p=0.4)
elif state[i]==1:
data[i] = pm.rbernoulli(p=0.8)
# Prior on probabilities
p_bern = pm.Uniform("p_S", 0., 1.)
p_0 = pm.Uniform("p_0", 0., 1.)
p_1 = pm.Uniform("p_1", 0., 1.)
Init = pm.Bernoulli("Init", p=p_bern) # Bernoulli node
@pm.deterministic
def p_T(Init=Init, p_0=p_0, p_1=p_1, p_bern=p_bern):
if Init==0:
return p_0
elif Init==1:
return p_1
obs = pm.Bernoulli("obs", p=p_T, value=data, observed=True)
model = pm.Model([obs, p_bern, p_0, p_1])
mcmc = pm.MCMC(model)
mcmc.sample(20000, 10000)
pm.Matplot.plot(mcmc)
我已经尝试以下无济于事:
- 使用
@pm.potential
装饰以create a joint distribution - 更改我的
Init
位置的位置(你可以看到我的评论的代码,我我不确定放在哪里) - 使用
@pm.stochastic
类似于this
编辑:根据克里斯的建议,我已将Bernoulli节点移到确定性之外。我还将代码更新为更简单的模型(伯努利观察而不是多项式),以便于进行故障排除。
谢谢你的时间和关注。任何反馈都会受到热烈的欢迎。另外,如果我错过了任何信息,请让我知道!
嗨@Chris,非常感谢您看看我的代码。你指的是将'Init = pm.rbernoulli(p = p_bern)'移出确定性,并将其作为参数传递,如'Init == 0:'?如果是这样,我已经尝试了这种方法,正如你可以在前面看到的'ed'行中看到的那样,得到相同的结果。或者你的意思是别的吗? – Richard
就是这条线。它导致确定性节点不再是确定性的。 –
因此在逻辑上这意味着在确定性中使用if语句没有任何错误? – Richard