2

在CPU上,文本编码(https://github.com/tensorflow/models/tree/master/research/textsum)运行完美。 https://github.com/tensorflow/models/blob/master/research/textsum/seq2seq_attention.py#L84 https://github.com/tensorflow/models/blob/master/research/textsum/seq2seq_attention_model.py#L149 https://github.com/tensorflow/models/blob/master/research/textsum/seq2seq_attention_model.py#L217 https://github.com/tensorflow/models/blob/master/research/textsum/seq2seq_attention_model.py#L228在GPU上运行tensorflow文本模型

型号还是会被训练有素的CPU,但再次:

为了更快的训练,我已经改变了 “CPU” 到 “GPU” 在以下4线运行在GPU代码,而不是在GPU上。 (我使用nvidia-smi进行了检查)

请让我知道是否有其他需要更改以在gpu上进行训练。

回答

0

修改这个代码行会帮助你在人才培养模式上的GPU

textsum/seq2seq_attention.py

# change this line 
# tf.app.flags.DEFINE_integer('num_gpus', 0, 'Number of gpus used.') 
tf.app.flags.DEFINE_integer('num_gpus', 1, 'Number of gpus used.') 

textsum/seq2seq_attention_model.py

# if self._num_gpus > 1: 
#  self._cur_gpu = (self._cur_gpu + 1) % (self._num_gpus-1) 
self._cur_gpu = (self._cur_gpu + 1) % (self._num_gpus-1 if self._num_gpus > 1 else self._num_gpus) 

参考问题link