0
我正在使用https://google.github.io/seq2seq/的代码训练seq2seq NMT(神经机器翻译)。在我中断训练过程之后,重新启动的过程变得非常慢(从1.2步/秒到0.07步/秒)。有其他人有这种经历吗?我该如何调试?我已经运行此数周,真的不想放弃...谢谢!〜Tensorflow SEQ2SEQ培训突然超慢
正常训练的最后一行,
INFO:tensorflow:loss = 0.585205, step = 830853 (79.477 sec)
INFO:tensorflow:global_step/sec: 1.24179
INFO:tensorflow:loss = 0.267574, step = 830953 (80.529 sec)
的超慢训练前几行...
INFO:tensorflow:global_step/sec: 0.0746058
INFO:tensorflow:loss = 0.554718, step = 830854 (1340.379 sec)