-1
我已经训练了5天的文本总数与在项目页面中推荐的参数。我使用了超过300万篇文章总结对的培训集。textsum不会聚合
起初running_average_loss
从9左右缓慢减少到4左右,但之后,running_average_loss
值变化很大,可以高达5以上,但有时可以低至1。该模型在训练集中包含一些文章,但输出结果远离引用的摘要,我很困惑。有人能分享他们的经验吗?
我很困惑与下列问题
running_average_loss
是小于10我每次运行时,是正常的吗?- 由于
running_average_los
的变化范围很大,没有收敛的迹象,是否过度配合? - 训练足够好的模型或何时停止训练需要多长时间?是否有迹象表明停止训练?因为从图中