2017-06-14 68 views
0

2张不同的GPU卡,我刚买了GTX 1080Ti,我想知道我是否可以并行与任何TensorFlow或PyTorch小批量同时使用我的老GTX和1070 GTX 1080Ti。夫妇迷你配料

我最关心的是:

请问1070 GTX瓶颈GTX 1080Ti或每个卡的强大功能将被用于其最大?

我知道,在一个SLI配置总VRAM量将等于具有最低量(GTX 1070这里有8GB或VRAM)的卡,但不一样的东西培训tensorflow/pytorch没有在发生SLI参与?

回答

0
  1. 不能为深度学习运行SLI。
  2. PCIe互连成为瓶颈。如果你不使用两条x16线,那么会比较慢。
  3. 我不确定如果发生电力问题会发生什么情况。
  4. 我可以并行运行GTX 1060和GTX 970进行小批量生产。