entropy

    1热度

    1回答

    我用TensorFlow创建了一个简单的卷积神经元网络。 当我使用边缘= 32px的输入图像时,网络工作正常,但是如果我将边缘两次增加到64px,那么熵反演就像NaN一样。问题是如何解决这个问题? CNN结构非常简单,看起来像: 输入 - > conv-> pool2-> conv-> pool2-> conv-> pool2-> FC-> SOFTMAX 熵计算,如: prediction =

    2热度

    2回答

    我试图理解矢量的熵。我开始通过用平均130,方差为1从正态分布产生大小百万的样品: kk=normrnd(130,20,1000000,1); kk=uint8(kk);%did this or else the result was 0 entropy(kk) KK的imhist是: 熵结果是6.3686 然后我从平均值为130和方差为1的正态分布中生成一个大小为1000的样本,按照与之

    1热度

    2回答

    我有一个直方图的例子: mu1 = 10, sigma1 = 10 s1 = np.random.normal(mu1, sigma1, 100000) 和计算 hist1 = np.histogram(s1, bins=50, range=(-10,10), density=True) for i in hist1[0]: ent = -sum(i * log(abs(i)))

    1热度

    2回答

    我试图来计算阵列熵源于np.histogram通过 mu1, sigma1 = 0, 1 s1 = np.random.normal(mu1, sigma1, 100000) hist1 = np.histogram(s1, bins=100, range=(-20,20), density=True) data1 = hist1[0] ent1 = -(data1*np.log(np.a

    3热度

    1回答

    我正在阅读一个图像分割纸,其中使用范例“信号分离”来处理问题,信号(在这种情况下,图像)由多个信号(图像中的对象)组成作为噪声,其任务是分离出信号(分割图像)。 该算法的输出是一个矩阵,表示的图像的分割成M个分量。 T是图像中像素的总数,是像素j处的源分量(/信号/对象)i的值。 在我正在阅读的论文中,作者希望选择一个分量m 匹配一定的平滑度和熵准则。但我不明白在这种情况下熵是什么。 熵被定义为以

    0热度

    1回答

    我正在查找可用于计算附加在此消息中的图像的信息熵的代码(http://i.stack.imgur.com/ahdk6.jpg)。我搜索了这个问题的潜在答案,并找到了如何做到这一点的一些说明(例如http://uk.mathworks.com/help/images/ref/entropy.html)。但是,这并不适用于我和相关图像。我真的很感谢任何人的帮助,因为我不擅长Matlab。 感谢和最美好

    1热度

    1回答

    我有R中的向量 myVect <- c(1,2,3,4) 输出我期待的是 1-2-3-4 =-8 是没有办法,我可以使用这个 功能 谢谢

    0热度

    1回答

    我想计算R中的条件互信息,并使用名为infotheo的包。我用两种方法计算I(X; Y1,Y2 | Z)。第一种是使用下面的代码, condinformation(X$industry,cbind(X$ethnicity,X$education),S=X$gender, method="emp") [1] -1.523344 正如我认为互信息可以被分解两个熵:I(X; Y1,Y2 | Z)=

    0热度

    5回答

    我想创建一个图像对象的数组,但挣扎。每个对象都会保存图像和图像的标题。 下面的代码工作正常,当我把它粘贴到萤火虫的检查: 例1 var imageArray = new Array(); imageArray[0] = new Image(); console.log(imageArray[0]); //result is <img> imageArray[0].src = "my-im

    5热度

    1回答

    根据维基百科,均匀分布是“最大熵概率分布”。因此,如果我有两个序列(一个是均匀分布的,一个是重复值的),都是长度为k的,那么我会期望均匀分布的序列的熵高于重复值的序列。然而,这是在运行中的R下面的代码时观察到没有什么: require(entropy) entropy(runif(1024), method="ML", unit="log2") entropy(rep(1,1024), met