我正在使用TensorFlow分类使用LeNet网络的图像。我使用AdamOptimizer来最小化成本函数。当我开始训练模型时,我可以观察到训练准确性和验证准确性以及成本正在发生变化,有时会减少,有时会增加。Tensorflow:何时停止由于最佳(最低)成本而进行的培训?
我的问题:我们应该什么时候停止培训?我们如何知道优化器会找到最低成本?我们应该做多少次迭代训练?我们可以设置一个变量或条件以最低的成本停止吗?
我的解决方案是定义一个全局变量(min_cost),并在每次迭代中检查成本是否降低,然后保存会话并用新成本替换min_cost。最后,我将以最低的费用获得保存的会话,
这是一个正确的方法吗?
由于提前,
所以,在第一段中,你说我需要训练模型以进行非常多的迭代,它会在某个点收敛,对吗? – Mohammad
好的,你必须设定一个合理的错误目标 - 迭代次数应该是你知道网络应该收敛到最小值的一个数量。最大迭代是目标错误的回退。 –
因此,我应该通过试错法找到最大迭代和目标错误? – Mohammad