rnn

    1热度

    1回答

    我已经用a,b,c标记标记了数据集,并且必须用a,b,c等标记标记传入序列。它应该对已知序列进行分类和标记,或者说我以前没有见过。 我想我应该定制我的网络,使标签独立。所以标签分数的总和不应该是1,并且每个标签分数是独立于其他的。 例如 sequence a : .95, 0.1, 0,01 sequence b : .02, 0.87, 0.9 unknown : .2, .15, .12

    0热度

    1回答

    我正在使用tf.nn.dynamic_rnn以tensorflow运行LSTM。我有一个张量N初始状态矢量和一个张量M = N * n输入。每个系列包括n输入项目,我想评价第i组与第i个初始状态向量输入向量,如下图所示: inputs[0:n], initial_states[0] inputs[n:2*n], initial_states[1] ... 有没有办法用做单独呼叫tf.nn.

    0热度

    2回答

    我一直在研究一个我一直在尝试不同机器学习算法的大数据集。我用XGBoost得到了非常好的结果,但是我得到的最好结果来自SVM。但是因为我有8年的数据传播时间,所以我想到了使用RNN的时间序列模型。我一直在试验RNN-LSTM的超参数,通过增加层数或每层节点的数量,因为没有经验法则。但是,我还没有接近我的XGBoost结果。我注意到的奇怪之处在于,即使将时期数从100增加到1000,或者我将隐藏层的

    1热度

    1回答

    我有csv中的原始数据,与具有公司名称的列名称w1相同。 w1 abcd reit pvt ltd abcd reit private ltd ac abcd pte limited abcd reit pvt ltd abcd singapore private limited company abcd reit pvt ltd company abcd reit private

    4热度

    1回答

    我想知道如何在Tensorflow中使用多层双向LSTM。 我已经实现了双向LSTM的内容,但是我想将这个模型与添加了多层的模型进行比较。 我该如何在这部分添加一些代码? x = tf.unstack(tf.transpose(x, perm=[1, 0, 2])) #print(x[0].get_shape()) # Define lstm cells with tensorflow #

    0热度

    1回答

    我是递归神经网络和LSTM的新手。我对他们的工作和训练程序有一个很好的想法。但是我很难想象它们,特别是在阅读Tensorflow文档并理解相关术语之后。在构建LSTM时,所有隐藏层单元都是LSTM单元?我的意思是如果我在隐藏层中有100个单元,是否意味着有100个LSTM单元?

    2热度

    1回答

    当试图编译一个具有一个经常性图层的网络时,我发现问题。似乎第一层的维度存在一些问题,因此我对Keras中RNN层的工作原理有所了解。 我的代码示例是: model.add(Dense(8, input_dim = 2, activation = "tanh", use_bias = False)) model.add(SimpleRNN(2,

    0热度

    1回答

    我想在张量流中写一个简单的RNN,基于这里的教程:https://danijar.com/introduction-to-recurrent-networks-in-tensorflow/ (我使用简单的RNN细胞而不是GRU,而不是使用丢失)。 我很困惑,因为我序列中的不同RNN细胞似乎被分配了不同的权重。如果我运行下面的代码 import tensorflow as tf seq_leng

    1热度

    1回答

    Tensorflow新手在这里!我知道Variables会随着时间的推移而被训练,占位符会使用输入数据,这些输入数据在模型训练时不会改变(如输入图像和这些图像的类标签)。 我正在尝试使用Tensorflow实现RNN的正向传播,并且想知道我应该保存哪种类型的RNN单元的输出。在numpy的RNN实现,它使用 hiddenStates = np.zeros((T, self.hidden_dim))

    1热度

    1回答

    为tf.contrib.legacy_seq2seq.embedding_rnn_seq2seq的正式文档具有用于output_projection参数如下解释: output_projection:无或一对(W,B)输出投影重量和偏见; W的形状为[output_size x num_decoder_symbols],B的形状为[num_decoder_symbols];如果提供并且feed_p