chainer

    0热度

    2回答

    首先我讲述你的问题和情况。 我想在chainer中做多标签分类,我的班级不平衡问题非常严重。 在这种情况下,我必须切片矢量来计算损失函数,例如,在多标签分类中,地面真值标签矢量大多数元素为0,其中只有少数为1,在这种情况下直接使用F .sigmoid_cross_entropy应用所有0/1元素可能会导致训练不收敛,所以我决定使用[[xx,xxx,...,xxx]]切片(a是上一个FC层的chai

    0热度

    1回答

    我在我的研究中实现了一个非常复杂的函数,它在这一层使用信念传播。我已经推导出梯度w.r.t.这个层的W(参数),但是因为它的复杂性,我没有导出渐变w.r.t. input_data(数据来自前一层)。 我对于反向传播的细节非常混乱。我搜索了很多关于BP算法的知识,有些笔记说只有差分w.r.t才行。 W(参数)并使用残差得到梯度?你的例子似乎也需要计算渐变w.r.t.输入数据(前一层输出)。我很困惑

    1热度

    1回答

    咖啡可以做到这一点。由于某一层神经网络需要较大的学习速率,而conv层需要很小的lr。如何控制不同的层在链接器中有不同的lr,以便优化器可以根据相应的lr进行更新?

    0热度

    1回答

    我希望通过组合一些现有的函数在Chainer中创建一个新的函数对象。我无法在文档中找到任何方法来执行此操作。我可以直接实现复合函数,这在计算上可能更有效。或者我可以使用现有函数的现有向前和向后方法。 推荐的方法是什么?

    1热度

    1回答

    作为这个thread,我们可以通过设置函数(f:trainer - > bool)作为培训师的stop_triger来停止迭代循环。 但是通过这种方式,我认为我们不能使用其他扩展,如LogReport,它使用stop_trigger =((args.epoch,'10'))。 所以,我的问题是如何实现提前停止作为扩展,以及如何发送信号来阻止来自扩展的教练迭代。 谢谢。

    0热度

    1回答

    我找到了chainercv项目:https://github.com/chainer/chainercv 我已经阅读了这段代码,评论和代码非常好,但是很少有细节仍然让我感到困惑。我想知道: 这个代码是否与https://github.com/rbgirshick/py-faster-rcnn 完全一样的逻辑这是一个orignal caffe实现。

    0热度

    2回答

    版本:2.0.2 chainer我 使用亚当优化,然后报告错误,我发现它是由代码(fix1 == 0?)造成的: 在adam.py: @property def lr(self): fix1 = 1. - math.pow(self.hyperparam.beta1, self.t) fix2 = 1. - math.pow(self.hyperparam.bet

    0热度

    1回答

    我首先使用L.LSTM,后来我发现这个NStepLSTM,这是官方教程文档的露出部分。 https://docs.chainer.org/en/stable/reference/generated/chainer.links.NStepLSTM.html?highlight=Nstep 为什么chainer.links.NStepLSTM或chainer.links.NStepBiLSTM没有re

    0热度

    1回答

    这个问题如下Does slice or index of chainer.Variable to get item in chainer has backward ability? 考虑一个典型的例子问题:假设我有卷积层+ FC层,我的最后一个FC层输出向量。因为在某些情况下我必须切片矢量来计算损失函数,例如,在多标签分类中,地面真值标签矢量大多数元素为0,其中只有少数为1,在这种情况下,直接使用

    0热度

    1回答

    使用泽维尔重量初始化我已经找到了这个网页:https://docs.chainer.org/en/stable/reference/initializers.html 如何使用泽维尔重量初始化在chainer初始化重?