0
我想在同一个TensorFlow会话中训练和测试我的模型。我使用两个不同的tf.FIFOQueue
来使用多线程加载训练和测试数据(因为feed_dict
导致性能较差)。我试了两件事:TensorFlow:在同一环节中进行培训和测试
我试着用共享参数两次创建我的模型(用于培训和测试)。但我使用的是
tf.contrib.layers.batch_norm
,它不允许共享批量标准化的参数。我试图调节我的网络的输入
tf.FIFOQueue
使用tf.cond
is_training
布尔占位符,但显然tf.cond
执行两个tf.FIFOQueue
小号出列功能,无论什么is_training
成立。
我想知道传统设置在同一会话中如何训练和测试,而不使用feed_dict
。