2017-04-01 87 views
0

train.pyline 246,我们在line 37OpenNMT混乱使用`Optim.updateLearningRate`的:`valid_loss`作为`ppl`精氨酸

# update the learning rate 
optim.updateLearningRate(valid_loss, epoch) 

但是,onmt/Optim.py,内部功能updateLearningRate(),我们有:

def updateLearningRate(self, ppl, epoch): 
... 
    self.last_ppl = ppl 

为什么在ppl的地方updateLearningRate()使用valid_loss

是不是valid_lossppl不同的措施?

任何人都可以帮助我在这里,谢谢!

回答