0
在train.py
line 246,我们在line 37有OpenNMT混乱使用`Optim.updateLearningRate`的:`valid_loss`作为`ppl`精氨酸
# update the learning rate
optim.updateLearningRate(valid_loss, epoch)
但是,onmt/Optim.py
,内部功能updateLearningRate()
,我们有:
def updateLearningRate(self, ppl, epoch):
...
self.last_ppl = ppl
为什么在ppl
的地方updateLearningRate()
使用valid_loss
?
是不是valid_loss
和ppl
不同的措施?
任何人都可以帮助我在这里,谢谢!