information-theory

    -1热度

    1回答

    我需要帮助的工作,我在学校... 我想做一个枚举或多个将在内存中的天数在一个月内的信息,名称月份和月份的数量。 此外,我的教导说,所有的信息必须在我的代码...没有数据库或其他类似的东西。 -_- 经验: public enum list { month = "nbdays" && "montnumber" && "otherinformation"; //

    16热度

    1回答

    我有两张黑白图像,需要计算互信息。 Image 1 = X Image 2 = Y 我知道,作为互信息可以被定义为: MI = entropy(X) + entropy(Y) - JointEntropy(X,Y) MATLAB已经有内置的函数来计算熵,但不计算联合熵。我想真正的问题是:我如何计算两幅图像的联合熵? 这里是我想找到的联合熵的图像的一个例子: X = 0 0 0 0 0

    0热度

    2回答

    解压我有一些16字符的十六进制字符串是这样的: B5A43BC5BDCEEFC6 2C7C27F05A488897 1514F4EC47C2EBF6 D91ED66BC999EB64 我想缩短他们,并有缩短的字符串只包含大写字母。 DeflateStream和GZipStream只是增加了长度。 任何人都可以帮我缩短这16个字符的十六进制字符串为6个字符或更少? 或者,将32个字符的十六

    2热度

    1回答

    许多人,我对机器学习感兴趣。我已经就这个话题开了一堂课,并且一直在阅读一些论文。我有兴趣找出什么使机器学习难以解决问题。理想情况下,我想了解机器学习问题的复杂性如何量化或表达。显然,如果一个模式非常嘈杂,人们可以看看不同算法的更新技术,并观察到某些特定的机器学习算法错误地将自身更新为错误的方向,这是由于有噪声的标签,但这是非常定性的争论而不是一些分析/量化的推理。 那么,如何量化问题或模式的复杂性

    -1热度

    1回答

    他们是否将levenstein距离转换为错误率? 由于错误率是不是正好是相同的序列的一部分。

    4热度

    3回答

    我已经给了一些课程来实现我选择的压缩算法。它可以是任何语言,但是我知道最好的是Java的语言,其次是C.将评估基础上 - 解压后的输出必须与原始输入相匹配,所以我只能看着损失更少的算法。 运行时间必须与消息长度成正比。 内存要求必须独立于消息的长度。 我们实现将如下测试 - 的标准文本文件 具有字节值的二进制文件从0-255 大型文件〜 10mb的未指定内容。 我最初的想法是使用动态算术编码,但我

    4热度

    1回答

    我有一个概率分布,定义了可能的状态发生的概率。 我想计算给定概率分布的香农熵的值,以位为单位。 我可以使用wentropy(x,'shannon')来获取值吗?如果是的话,我可以在哪里定义系统可能的状态数量?

    1热度

    2回答

    我需要使用QAIC标准对候选模型进行排名。这是我已经试过: library(MuMIn) model_global <- glm(vs ~ mpg + disp + wt, family = quasibinomial, mtcars) model_1 <- glm(vs ~ mpg, family = quasibinomial, mtcars) model_2 <- glm(vs ~ d

    1热度

    2回答

    我需要计算互信息,以及N个变量的香农熵。 我写了一个代码来计算某些分布的香农熵。 假设我有一个变量x,数组数组。 继definition of shannon entropy之后,我需要计算归一化的概率密度函数,所以使用numpy.histogram很容易得到它。 import scipy.integrate as scint from numpy import* from scipy imp

    0热度

    3回答

    我想解决 Levenshtein_distance这个问题,在字符串的长度过于庞大。 EDIT2: 作为Bobah说,标题是错过领先,所以我必须更新questoin的称号。 初始title was如何在C++中声明100000x100000二维整数? Content was 有任何方式来声明INT X [100000] [100000]在C++中。 当我在全局声明它时,编译器生成error: si