2017-07-14 240 views
0

我使用tf.train.shuffle_batch()tf.train.batch()来读取每个类有两个类和三个示例的.record文件。如果我想要两个批次的三个例子,我把num_epochs = 1放在string_input_producer,所以我会得到两个批次的三个例子,但每次我给他们打电话时,两个函数都会返回两个洗牌批次。张量流中shuffle_batch()和batch()之间的区别

这两个函数有什么区别?

谢谢!

+0

该文档是非常明确的。即使是名字也非常清楚。你还需要其他什么解释? –

回答

1

tf._train.shuffle_batch()将以随机顺序返回记录,而tf.train.batch()将按顺序从您的源返回它们。取决于你想要完成什么,其中一个或另一个可能更有帮助。我会说shuffle_batch,因为它增加了额外的随机化学习过程,但首先考虑你的任务是有道理的。

+0

这是真的。但是,如果您设置'dynamic_pad = True'或\和'allow_smaller_final_batch = True',则会使用'tf.train.batch'生成混洗的批次 – Isaac

相关问题