如何解决Pytorch 错误:再次尝试向后遍历图形,但已释放保存的中间结果
我有一种情况,对于每个小批量,我有多个嵌套数据,需要为其训练模型。
for idx,batch in enumerate(train_DataLoader):
data = batch.get("data").squeeze(0)
op = torch.zeros(size) #zero_initializations
for i in range(data.shape[0]):
optimizer.zero_grad()
current_data = data[i,...]
start_to_current_data = data[:i+1,...]
target = some_transformation_func(start_to_current_data)
op = model(current_data,op)
loss = criterion(op,target)
loss.backward()
optimizer.step()
但是当我开始训练时,我收到以下错误RuntimeError:尝试再次向后浏览图表,但保存的中间结果已被释放。第一次向后调用时指定retain_graph=True。设置 retain_graph=True 会增加内存使用量,我无法训练模型。我该如何解决这个问题。
版权声明:本文内容由互联网用户自发贡献,该文观点与技术仅代表作者本人。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如发现本站有涉嫌侵权/违法违规的内容, 请发送邮件至 dio@foxmail.com 举报,一经查实,本站将立刻删除。