2017-03-17 41 views

回答

1

有一个在seq2seq tutorial的部分原因。简单的解释是,当有大量类别时(通过sampled_softmax_loss),它可以有效地近似损失。

+0

我有点困惑的部分解释。我了解如何使用权重/偏差来执行sampled_softmax_loss,但我仍然不知道如何在API中实际使用该标志。有没有任何教程显示output_projection实际上正在使用? – reese0106

+0

请在另一篇文章中看到我的问题:https://stackoverflow.com/questions/45716295/how-to-use-output-projection-weights-biases-in-seq2seq – reese0106

相关问题