2010-10-25 63 views
0

当与狄利克雷流程处理,如[德,2007]中,DP被定义为通过碱概率H和缩放因子“阿尔法”质点,狄拉克Delta在狄利克雷进程

根据该棒断裂构造中,随机抽取克来自一个DP:

G〜DP(α,1H)

由下式给出:

G =总和(pi_k * delta_theta_k)用K从1到无穷大

pi_k被下令从给出的单一棒的长度

delta_theta_k是“theta_k”为中心的点质量Beta分布绘制(theta_k是随机从基地配送平)

我有一个很值得清楚地理解所有变量,但我不知道“质量点”是指它的概率密度,还是其他值。

如果你能指出我的任何方向,只有参考才会令人惊叹,那将是非常棒的。

谢谢

+0

这将有助于如果你给你使用更多的细节,而不仅仅是[Teh,2007] – Stompchicken 2010-10-26 13:57:46

+0

我会假设它是'Dirichlet Processes'Yee Whye Teh,机器学习百科 – Stompchicken 2010-10-26 14:15:10

回答

1

G是概率分布概率分布。这些(子)概率分布在某个域上,我们称之为BigTheta。

每个theta_k都是BigTheta上的分布图,所以它是BigTheta的一些元素。

每个delta_theta_k是BigTheta上的概率分布,定义为delta_theta_k(theta_k)= 1和delta_theta_k(其他任何)= 0。这就是他们称之为“点质量”分布的原因,因为分布的所有质量在域的单个点上。 G是在BigTheta上概率分布的概率分布,其定义为:对于BigTheta上的一些称为f(其由θ参数化)的分布G(f(theta))= sum(pi_k * delta_theta_k(theta)) 。

我希望有帮助,我认为你一般都有正确的想法,它只是符号可以变得有点复杂(并且SO不是最好的这种符号)。当你遇到一个符号来思考它是什么类型的函数时,它通常是有用的,即它定义了什么。

+0

这是一个非常好的答案,谢谢,对不起,没有指向整个参考 – 2010-10-27 04:19:32

+0

没问题,祝你好运,试图理解Dirichlet过程 - 他们肯定会把我搞混了:) – Stompchicken 2010-10-27 09:15:53

+0

顺便问一下,这些问题(即关于NLP /贝叶斯统计的讨论)在http://metaoptimize.com/qa/可能会获得更好的结果。 – Stompchicken 2010-10-27 18:37:36