backpropagation

    0热度

    1回答

    我正在写这个代码用于学习ANN(多层反向传播)的过程,但是学习的结果非常糟糕,它在任何时候都不是1我知道我们不能提供任何保证让学习成功,但我想知道我是否在此代码中出现错误,或者如果我可以使这些步骤具有更高的性能。 步骤: 1-上传我的数据集 2-选择从225 170行的学习和其余50行测试(随机地) 3-创建用于输入权重和隐藏层随机和1之间的0 4- -1之间,用于隐藏层和输出层创建偏置随机和1

    -2热度

    1回答

    我想在Keras中复制此文章https://arxiv.org/pdf/1606.07659v1.pdf。它使用自动编码器作为推荐系统。这个想法是掩盖一些已知的值(评级),以便教您的网络预测未知值,同时正确重建其他值。 因此,您有三种评分类型:非屏蔽已知值,已屏蔽已知值(变为0)和未知值(变为0)。 您的损失函数只需包含非屏蔽已知值和已屏蔽已知值的错误,但如果我理解正确,您还需要屏蔽后向传播未知值

    21热度

    1回答

    通过将底部和顶部blob设置为相同,我们可以告诉Caffe执行“就地”计算以保留内存消耗。 目前我知道我可以安全地在原地使用"BatchNorm","Scale"和"ReLU"图层(如果我错了,请让我知道)。虽然它似乎有其他层的一些问题(this issue似乎是一个例子)。 何时使用Caffe中的就地层? 它如何与反向传播一起工作?

    0热度

    1回答

    我喜与神经网络,现在玩。我做了那种本教程的重新实现的: http://www.ai-junkie.com/ann/evolved/nnt5.html,但随着鱼类和食品也有不同的编程语言。但重点是一样的。 我有一堆鱼(20)和一堆foos(40)。每条鱼都有大脑(神经网络(我将从现在开始使用ANN))。目前,神经网络不使用backprop,并通过遗传alghoritm进行训练。它工作正常。我想通过使

    0热度

    1回答

    我有一个有很多输入的神经网络,我想训练它意识到只有一个输入很重要。首先我训练它与输入[1] = 1并给出结果10 然后我训练与完全相同的输入,除了输入[1] = 0,并给出结果为0. 我训练他们,直到错误为0之前我切换到另一个,但他们只是不断地改变不同的权重,直到输出等于给定的结果,他们从不知道只有与输入[1]相关的权重需要关注。 这是一个常见的错误,可以说,可以绕过某种方式吗? Ps。我正在使用

    1热度

    2回答

    我想使用这个函数来计算神经网络的成本函数作为我的编程任务的一部分。 其中K是标签的数量。因为我有5000个训练样例和10个标签,所以hTheta和y都是大小(5000,10)的矩阵。我使用八度和我得到我的成本函数为NaN。 (这也是期望的,因为hTheta和Y的所有值都是0或1,所以log(0)* 0将不被定义)。 但是我应该怎样计算成本? 注 - hTheta由神经网络上的前馈算法生成,y是输入

    -1热度

    1回答

    我是神经网络中的新手,并且阅读了关于反向传播的内容,但没有得到为什么反向传播算法陷入局部最小值?

    -3热度

    1回答

    是不是反向传播算法独立算法,还是我们需要任何其他算法,如贝叶斯一起用于神经网络学习?我们是否需要任何概率方法来实现反向传播算法?

    0热度

    1回答

    我在python中编写了一个神经网络来解决mnist任务。 但错误率变化真的很小(逗号后的第6位数)在一个纪元后,并且网络在10000个纪元后没有学习太多...... 你能帮我解决我做错了什么,以及如何改进我的代码来解决MNIST? 我将学习率eta设置为0.05。 import numpy as np import pickle import time class FeedForward

    0热度

    3回答

    我开发了一个ANN BP的代码来分类打鼾片段。我有10个输入功能和1个隐藏层,有10个神经元和一个输出神经元。我将1表示为无打鼾,0表示为打鼾部分。我有3000个网段,其中2500个是没有打鼾的网段,标记为1和500个打鼾网段,标记为0.我已经将数据集分为三组(70%的训练,15%的验证和15%的测试) 。 现在,在训练网络时,首先我洗牌训练集并将打鼾和无打鼾的段混合在一起。所以,在我训练了网络之