machine-learning

    12热度

    1回答

    我试图实现一种朴素的贝叶斯方法来找到给定的文档或单词流的主题。是否有朴素贝叶斯方法,我可能会查找这个? 此外,我正在努力改善我的字典,因为我一直沿。最初,我有一堆映射到主题(硬编码)的单词。取决于除已映射之外的单词的出现。根据这些词的出现,我想将它们添加到映射中,从而改进和学习映射到主题的新单词。并且还改变了单词的概率。 我应该如何去做这件事?我的方法是正确的吗? 哪种编程语言最适合实现?

    17热度

    3回答

    我读不同的文件CRF(条件随机场)是如何工作的,但所有的文件只提出的公式。有没有人可以给我发一篇描述CRF的论文,例如如果我们有句子 “史密斯先生出生在纽约,他在微软公司工作了20年。 如果上面的句子作为输入给出训练,如何做培训采取中考虑公式CRF在示范工程? Smith被标记​​为“PER”纽约被视为“LOC”Microsoft公司称为“ORG”。 Moges.A

    19热度

    5回答

    我想知道什么算法将是巧妙利用了标记驱动的电子商务环境: 每个项目都有几个标签。 IE: 项目名称: “Metallica的 - 黑色专辑CD”,标签: “METALLICA”, “黑专辑”, “摇滚”, “音乐” 每个用户都有几个标签和朋友(其他用户)绑定到 他们。 IE: 用户名: “testguy” 兴趣: “蟒蛇”, “摇滚”, “金属”, “计算机科学” 好友: “testguy2”, “

    10热度

    4回答

    我有一组书籍的对象,班组长书定义如下: Class Book{ String title; ArrayList<tags> taglist; } 凡冠军是书的标题,例如:的Javascript傻瓜。 和标记列表是我们的示例的标签列表:的Javascript,jQuery的,“网站开发”,... 正如我说的是有一个帐套谈论不同的事情:IT,生物,历史,... 每本书都有一个标题和描述它

    3热度

    3回答

    问题:给定一组手工分类的字符串(或一组有序的字符串向量)生成一个分类函数,以对更多输入进行分类。就我而言,这些数据(或大部分数据)不是自然语言。 问题:是否有任何工具可以做到这一点?我正在考虑一些合理的打磨,下载,安装和类似的事情,而不是一些图书馆或一个脆弱的学术计划。 (不要停留在细节,请尽快与真正细节将限制答案通常较少有用的答复,并签署保密协议。) 由于我正在寻找一个例子;我想要过滤的输入是从

    3热度

    2回答

    我的玩具项目学习&应用强化学习为: - 一个代理尝试达成目标状态“安全” &“快” ...... - 但也有弹和火箭,这是在代理方式发起的。 - 代理可以确定-with一些噪音火箭的位置 - 只有当他们是“近” - 然后,代理必须学会避免崩溃到这些火箭弹.. - 代理有-rechargable与时间燃料这是在代理运动消耗 - 连续操作:加速前进 - 用角 谈到我需要一些提示和RL算法的名称是适合是

    1热度

    3回答

    我需要找词训练词及其分类。简单的分类如。体育娱乐和政治这样的事情。 我在哪里可以找到单词和他们的分类。我知道许多大学已经完成了一揽子文字分类。有没有训练实例的存储库?

    0热度

    1回答

    任何人都可以帮助我解释weka中使用朴素贝叶斯分类生成的以下结果。 请解释清楚什么是 正态分布 平均 StandardDev WeightSum 精度。 请帮帮我,我是weka的新人。 ** 朴素贝叶斯分类器 Class Normal: Prior probability = 0.5 1374195_at: Normal Distribution. Mean = 218.06 Standa

    33热度

    6回答

    我要寻找一个库,理想情况下,具有以下特点: 实现多维数据(最好在similiarity或距离矩阵)的层次聚类 实现支持向量机 是在C++ 有所记载(这一个似乎是最难) 我希望这是用C++编写的,因为我对这种语言非常满意,但是如果库很值得,我也会使用任何其他语言。我搜索了一下,发现了一些,但我没有时间全部尝试,所以我想听听别人的经验。如果你有推荐的图书馆经验,请只回答。 P.S .:我也可以使用不同

    1热度

    1回答

    更新规则TD(0)Q-学习: Q(t-1) = (1-alpha) * Q(t-1) + (alpha) * (Reward(t-1) + gamma* Max(Q(t))) 然后取无论是当前最好的行动(优化)或随机动作(资源管理器) 哪里MaxNextQ是可以在未来的状态下得到了最大Q ... 但在TD(1)我想更新规则将是: Q(t-2) = (1-alpha) * Q(t-2) + (alp