我编码的rnn类似于tensorflow提供的dynamic_rnn。我试图在GitHub上看到代码,但无法理解它们是如何实现它的。我想从头开始构建它,以便我可以从内部自定义rnn。怎么做?在tensorflow中从头开始构建dynamic_rnn
目前,我的方法是考虑截断时间序列作为张量使用tf.scan()并为所有时间序列找到新的隐藏状态。然后使用tf.map_fn来查找新的堆叠隐藏变量的输出。最后,使用tf.while_loop()来查找叠加输出的第一维上每个张量的误差,并用该损失进行反向传播。
这样做后,我担心图表会变得动态。我的意思是说让我先展开5次,然后4次图表会擦除一个节点之前滚动的数据?
这项工作?
请指导。
谢谢