我创建了一个模型,在CPU上有一个嵌入层,在gpu:0上有一个LSTM,在gpu:1上有一个softmax层.
然后我创建了一个像这样的训练操作:
optim = tf.train.GradientDescentOptimizer(LEARNING_RATE)
train_op = optim.minimize(final_loss)
训练因内存不足错误而失败.启用设备放置日志记录显示softmax的梯度已放置在gpu:0而不是gpu:1上.如何让TensorFlow正确放置它?
解决方法:
要将渐变放在与原始(正向传递)op相同的设备上,您应该将可选参数colocate_gradients_with_ops = True传递给optim.minimize()
.您的代码将如下所示:
optim = tf.train.GradientDescentOptimizer(LEARNING_RATE)
train_op = optim.minimize(final_loss, colocate_gradients_with_ops=True)
版权声明:本文内容由互联网用户自发贡献,该文观点与技术仅代表作者本人。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如发现本站有涉嫌侵权/违法违规的内容, 请发送邮件至 [email protected] 举报,一经查实,本站将立刻删除。