当使用Tensorflow训练网络时,我们如何最小化GPU的空闲时间?使用TensorFlow时尽量减少GPU的空闲时间
要做到这一点: -
- 我用Python的多线程来预处理数据,并将其从TensorFlow拿着数据,其中饲料为
tf.RandomShuffleQueue
。
我认为这会比feed_dict
方法更有效率。
但是我仍然觉得做nvidia-smi
我的GPU仍然100%
利用去0%
利用率和回100%
经常。 由于我的网络很大,数据集也很大,所以任何关于加速的富有成效的建议都会非常有帮助。
我认为直接从tf.Queue
读取数据比feed_dict
好吗?
注:我使用的是12 GB泰坦X GPU(麦克斯韦架构)