在CPU上,文本编码(https://github.com/tensorflow/models/tree/master/research/textsum)运行完美。 https://github.com/tensorflow/models/blob/master/research/textsum/seq2seq_attention.py#L84 https://github.com/tensorflow/models/blob/master/research/textsum/seq2seq_attention_model.py#L149 https://github.com/tensorflow/models/blob/master/research/textsum/seq2seq_attention_model.py#L217 https://github.com/tensorflow/models/blob/master/research/textsum/seq2seq_attention_model.py#L228在GPU上运行tensorflow文本模型
型号还是会被训练有素的CPU,但再次:
为了更快的训练,我已经改变了 “CPU” 到 “GPU” 在以下4线运行在GPU代码,而不是在GPU上。 (我使用nvidia-smi进行了检查)
请让我知道是否有其他需要更改以在gpu上进行训练。