我正在训练一个自定义命名实体识别(NER)模型中使用NeuroNER这是使用张量flow.I写我能够训练模型及其表现良好,但是当我重新训练它新的观察,它显示不正确的结果它纠正它们,但其影响/遗忘一些以前的观察它显示正确的结果。重新训练tensorflow模型
我想在线再训练。我尝试使用stanfordNLP,Spacy,现在tensor-flow.please提出了一个更好的方法来达到预期的目标。
谢谢
我正在训练一个自定义命名实体识别(NER)模型中使用NeuroNER这是使用张量flow.I写我能够训练模型及其表现良好,但是当我重新训练它新的观察,它显示不正确的结果它纠正它们,但其影响/遗忘一些以前的观察它显示正确的结果。重新训练tensorflow模型
我想在线再训练。我尝试使用stanfordNLP,Spacy,现在tensor-flow.please提出了一个更好的方法来达到预期的目标。
谢谢
我觉得这个问题背后有一个误解。当你训练模型时,你调整了一组参数,有时甚至达到数百万个参数。然后你的模型将学习如何适合这些数据。
神经网络的事情是他们可能会忘记。这听起来很糟糕,但实际上它使它变得非常强大:它学会忘记什么是无用的。
也就是说,如果你再培训你应该: - 只运行了几个时代,否则模型会过度拟合新的数据集从而忘记了一切 - 学会在更大的数据集,即过去的+新数据,将确保没有什么东西被遗忘 - 可能会使用更大的设置(隐藏层大小或层数),因为您无法无限期地希望通过相同的设置了解更多信息。
我不是在线培训专家,但这不是您可以毫不费力地期望的。实际上很难做到。当你“继续”训练时,这远非默认行为。
希望它有帮助。
感谢您的回复。我会尝试这种方法。 –