我正在研究训练相对较大的RNN(128单元LSTM和一些添加图层)的代码。主要过程是在CPU上充满核心,我想知道这是否正常或我是否可以优化它。在训练循环(session.run调用)期间,它使用大约60-70%的GPU负载,同时在一个内核上使用100%的CPU负载。请注意,数据采样工作已在其他内核上同时完成,因此它只是更新了模型参数。这对于TensorFlow中的这些应用程序来说是否正常,或者在使用GPU的全部容量时,CPU负载是否要低得多?TensorFlow RNN培训100%的CPU,而只使用60%的GPU
0
A
回答
0
我们没有关于它的完整文档,但你可以在分析信息来看看,看看它给你更多,其中时间是要的一个想法: https://github.com/tensorflow/tensorflow/issues/1824#issuecomment-225754659
0
我想RNN单元有两个输入,当训练数据时它必须等待那两个方向输入,换句话说,它优化并行性并不像CNN那么容易。您可以使用大批量来提高GPU利用率,但也许会导致其他问题,如纸张关于深度学习的大批量培训:泛化差距和夏普极小值。
相关问题
- 1. TensorFlow - GPU加速只用于培训?
- 2. GPU + CPU Tensorflow训练
- 3. Tensorflow RNN培训不会执行?
- 4. 慢tensorflow培训和评估GPU
- 5. Tensorflow Slim Imagenet培训
- 6. Tensorflow:在GPU和CPU
- 7. 谷歌tensorflow objectdetection培训
- 8. tensorflow损失楠同时培养了RNN
- 9. TensorFlow-Slim多GPU训练
- 10. Tensorflow:钢钉变量CPU在Multigpu培训工作不
- 11. Tensorflow没有看到GPU而是使用了CPU,怎么样?
- 12. 3darray训练/测试TensorFlow RNN LSTM
- 13. 分布式Tensorflow,Master在培训时卡住了,工作人员没有开始培训,而使用SyncReplicasOptimizer和MonitoredTrainingSession?
- 14. Python的Tensorflow运行在GPU代替CPU
- 15. Tensorflow 1.0培训模式使用指数级更多的空间
- 16. Tensorflow分批培训数据批量
- 17. 培训tensorflow崩溃计算机
- 18. Tensorflow SEQ2SEQ培训突然超慢
- 19. Tensorflow培训/验证损失nan问题
- 20. 通过Tensorflow进行培训和预测
- 21. Tensorflow如何让培训步长值
- 22. 再培训以来
- 23. Tensorflow多GPU训练和可变范围
- 24. 使用夜间TensorFlow构建与Cloud ML引擎进行培训
- 25. 上一批培训
- 26. TensorFlow:图形优化(GPU vs CPU性能)
- 27. 使用CPU 100%
- 28. 使用CPU vs GPU来训练模型 - 速度vs内存
- 29. Tensorflow:在GPU上运行训练阶段并在CPU上测试阶段
- 30. tensorflow:在一个GPU上训练网络,但占用另一个GPU的空间
有趣...我正在做一些培训,只使用30%的CPU和25%的CPU,并寻找答案,为什么它不会使两者中的任何一个饱和。 – Trejkaz