我使用tf.train.shuffle_batch()
和tf.train.batch()
来读取每个类有两个类和三个示例的.record文件。如果我想要两个批次的三个例子,我把num_epochs = 1
放在string_input_producer
,所以我会得到两个批次的三个例子,但每次我给他们打电话时,两个函数都会返回两个洗牌批次。张量流中shuffle_batch()和batch()之间的区别
这两个函数有什么区别?
谢谢!
我使用tf.train.shuffle_batch()
和tf.train.batch()
来读取每个类有两个类和三个示例的.record文件。如果我想要两个批次的三个例子,我把num_epochs = 1
放在string_input_producer
,所以我会得到两个批次的三个例子,但每次我给他们打电话时,两个函数都会返回两个洗牌批次。张量流中shuffle_batch()和batch()之间的区别
这两个函数有什么区别?
谢谢!
tf._train.shuffle_batch()
将以随机顺序返回记录,而tf.train.batch()
将按顺序从您的源返回它们。取决于你想要完成什么,其中一个或另一个可能更有帮助。我会说shuffle_batch
,因为它增加了额外的随机化学习过程,但首先考虑你的任务是有道理的。
这是真的。但是,如果您设置'dynamic_pad = True'或\和'allow_smaller_final_batch = True',则会使用'tf.train.batch'生成混洗的批次 – Isaac
该文档是非常明确的。即使是名字也非常清楚。你还需要其他什么解释? –