rnn

    0热度

    1回答

    我想实现一个简单的RNN来预测整数序列中的下一个整数。所以,我有一个数据集是如下: Id Sequence 1 1,0,0,2,24,552,21280,103760,70299264,5792853248,587159944704 2 1,1,5,11,35,93,269,747,2115,5933,16717,47003,132291,372157,1047181,2946251,8289

    0热度

    1回答

    我试图建立一个RNN模型,将评论分为正面或负面情绪。 有一个词汇的词汇,在预处理过程中,我对一些索引序列进行了回顾。 例如, "This movie was best" --> [2,5,10,3] 当我试图让频繁vocabs并查看其内容,我得到这个错误: num of reviews 100 number of unique tokens : 4761 Traceback (most rec

    0热度

    1回答

    训练时我无法弄错我做错了RNN。我试图训练RNN对于和序列操作(了解它如何在简单的任务上工作)。 但是我的网络没有学习,损失保持不变,并且它不能模拟事件。 你能帮我找到问题吗? 数据我使用: data = [ [1, 1, 1, 1, 0, 0, 1, 1, 1], [1, 1, 1, 1], [0, 0, 1, 1], [0, 0, 0, 0, 0, 0,

    2热度

    1回答

    我正面临着一些怀疑,试图在Tensorflow下使用多输入序列(多变量)实现LSTM。 我以这种方式定义的LSTM: def LSTM(x): x = tf.reshape(x, [-1, input_length]) x = tf.split(x, input_length, 1) rnn_cell = rnn.MultiRNNCell([rnn.BasicLSTMCell(n_hidd

    -1热度

    1回答

    我的应用场景类似于前一个Pattern recognition in time series 通过处理时间序列数据集,我想检测类似于这样的模式: 使用采样的时间序列作为一个例子,我想能够检测模式如下标注: 但我想Python和LSTM做到这一点。 我已阅读了关于RNN时间序列和词类分类的一些资料。我知道RNN如何预测时间序列的结果,但我很困惑如何在时间序列中找到模式。 我在网上搜索了很长时间。但没

    0热度

    1回答

    我是神经网络和LSTM的新手,因此需要一些帮助。 我有100个不同时间长度的文件,每个文件都有13个特征。每个文件都代表一个输出类。 现在,我想有一个LSTM网络,可以分类这些时间序列文件。 我该怎么处理?我应该如何处理/准备我的数据?网络的输入应该是什么样的? 在此先感谢。

    1热度

    1回答

    我对于深度学习及其对时间序列预测的方法颇为陌生。最近我发现了一篇关于time series predicting using Recurrent Neural Networks (RNN) in Tensorflow的文章。 在这篇文章中,测试仪在过去的20个值和模型预测y_pred也为数据集的最后20个值,然后计算y_test和y_pred MSE。我的问题是:如何扩展模型以接收未来下一阶段的预

    0热度

    1回答

    我正在尝试使用torch/rnn工具包在我的nVidia图形卡上运行RNN。我有一个带有nVidia驱动程序,CUDA工具包,Torch和cuDNN的Ubuntu 16.04虚拟机。我可以运行mnistCUDNN示例,nvidia-smi使用图形卡显示它。在火炬中,我可以要求('cunn');并且它快乐地加载。 但是当我dofile('./ rnn/examples/recurrent-visua

    2热度

    1回答

    在CPU上,文本编码(https://github.com/tensorflow/models/tree/master/research/textsum)运行完美。 https://github.com/tensorflow/models/blob/master/research/textsum/seq2seq_attention.py#L84 https://github.com/tensorf

    1热度

    1回答

    刚开始研究RNN和LSTM ...有一个问题没有回答我看过的任何资源: 以下是我如何理解RNN中参数共享的要点。我的问题是: 我对RNN的理解,总结如下,是否正确? 在Keras的实际代码示例中,我研究了LSTM,它们将句子填充到相同的长度。通过这样做,这不会冲走RNN中参数共享的全部目的吗? 在常规的前馈神经网络中,每个输入单元都被分配一个单独的参数,这意味着输入单元(特征)的数量对应于要学习的