1
我正在运行一个TF应用程序来推断给定的模型。 但是,它不在GPU上运行,但在CPU上,尽管tensorflow库是在启用CUDA的情况下构建的。要了解TF模型,tensorflow模型(.pb)是否具有设备信息,如tf.device(/ cpu:0)或tf.device(/ gpu:0)?Tensorflow模型(.pb)包含设备信息?
我正在运行一个TF应用程序来推断给定的模型。 但是,它不在GPU上运行,但在CPU上,尽管tensorflow库是在启用CUDA的情况下构建的。要了解TF模型,tensorflow模型(.pb)是否具有设备信息,如tf.device(/ cpu:0)或tf.device(/ gpu:0)?Tensorflow模型(.pb)包含设备信息?
从docs(重点煤矿):
有时导出元图是从训练环境,进口商没有。例如,该模型可能已经在GPU上进行了培训,或者在具有副本的分布式环境中进行了培训。导入这些模型时,能够清除图形中的设备设置非常有用,以便我们可以在本地可用的设备上运行它。 这可以通过拨打
import_meta_graph
与clear_devices option
设置为True
来实现。with tf.Session() as sess: new_saver = tf.train.import_meta_graph('my-save-dir/my-model-10000.meta', clear_devices=True) new_saver.restore(sess, 'my-save-dir/my-model-10000')