2016-12-30 133 views
0

目前我正在使用Theano进行机器学习,现在我想尝试火炬。在火炬机器学习框架中设置GPU的使用情况

在Theano没有设置标志为GPU内存使用的选项:

os.environ["THEANO_FLAGS"] = "mode=FAST_RUN, device=gpu,floatX=float32,lib.cnmem=0.9"

所以Theano使用GPU的集容量,这里90%。然而在火炬中,类似的网络使用大约30%的GPU负载。

有没有什么办法可以在类似于Theano的Torch中设置更高的GPU负载?

回答

0

火炬会根据它的标准分配器使用尽可能多的GPU内存。

内存割炬的使用量不需要像在Theano中做的例子那样预先指定。

+0

啊谢谢!这就解释了为什么内存使用量会随网络大小自动增加。 –