如何编程keras或tensorflow以划分多GPU上的训练,假设您处于一个amaozn ec2实例,其中有8个GPU,并且您希望使用它们全部训练得更快,但是您的代码仅适用于单个CPU或GPU?使用多个GPU训练一个模型
2
A
回答
2
是的,可以在多个GPU上运行Keras模型。这只能在TensorFlow后端暂时使用,因为Theano功能还是比较新的。我们正考虑在不久的将来在Theano添加对多GPU的支持(它应该相当简单)。
使用TensorFlow后端,您可以像使用纯TensorFlow一样完成此任务:在定义Keras图层时使用with tf.device(d)scope。
最初来自here
+1
作为对此答案的补充,您可以在以下链接中查看答案。我们的想法是为每个图层组设置'tf.device('/ gpu:0'):'或'tf.device('/ gpu:1')'等。 https://stackoverflow.com/questions/46366216/tensorflow-is-it-possible-to-manually-decide-which-tensors-in-a-graph-go-to-th –
+0
@DanielMöller:谢谢! –
相关问题
- 1. 当多个GPU用于训练时,加载预训练模型失败
- 2. TensorFlow-Slim多GPU训练
- 3. 并行训练多个Auto.Arima模型
- 4. 与sklearn平行训练多个模型?
- 5. GPU + CPU Tensorflow训练
- 6. 使用CPU vs GPU来训练模型 - 速度vs内存
- 7. tensorflow:在一个GPU上训练网络,但占用另一个GPU的空间
- 8. 我们可以使用多gpu traing来恢复由单个gpu训练的模型吗?
- 9. 是否可以在一个GPU上一起训练pytorch和tensorflow模型?
- 10. 使用RapidMiner从多个文件中训练模型
- 11. 用多种方法训练多个模型并积累预测
- 12. NLP模型训练
- 13. caffe中不提供多GPU训练
- 14. Tensorflow多GPU训练和可变范围
- 15. 如何使用Caffe(pycaffe)在Python中使用多GPU训练?
- 16. 如何在TFLearn中的一个python模块中训练多个模型?
- 17. Tensorflow:使用在另一个模型中训练的权重,不同的模型
- 18. 是否可以使用GPU训练H2O模型并使用CPU进行预测?
- 19. 多GPU训练使用tf.slim需要更多的时间比单GPU
- 20. Tensorflow:使用预训练以来模型
- 21. 用keras训练一个巨大的模型开始
- 22. 如何在训练深度网络时有效使用多个GPU?
- 23. 如何使用Keras进行多GPU训练?
- 24. 重新训练tensorflow模型
- 25. 如何训练ML模型?
- 26. 训练分类模型Opennlp
- 27. Keras训练稀疏模型
- 28. 错误训练im2txt模型
- 29. LightGBM:继续训练模型
- 30. 分割训练数据以训练n个模型的最佳数量
这是有点广泛的这个网站。您要求我们为您设计解决方案。 https://stackoverflow.com/help/how-to-ask – jdv