如何解决如何在训练过程中手动更新参数而不干扰Pytorch中的自动分级?
这是我的代码,
class model(torch.nn.Module):
def __init__(self,config):
super(model,self).__init__()
self.memory_matrix = torch.zeros((user_num,self.k,self.embedding_dim),device=self.device,requires_grad=False)
def forward(self,users,items):
for clicks in items:
# ...
self.memory_matrix[users] = self.memory_matrix[users] * (1 - z.unsqueeze(2) @ erase.unsqueeze(1)) \
+ z.unsqueeze(2) @ add.unsqueeze(1)
a = a * self.memory_matrix
该模型与推荐系统有关,并且为每个用户维护一个存储矩阵。我向模型提供用户历史记录点击,即包含用户交互项的序列。在处理用户的历史点击时,应根据当前点击更新存储矩阵。为此,我在__init__
函数中将存储矩阵初始化为张量,并在训练期间更新该存储矩阵。完成对整个历史记录单击的处理后,backward
函数将更新模型的参数。这就是问题所在,语句a = a * self.memory_matrix
显示a
的斜率取决于当时的存储矩阵,这意味着a
的斜率取决于存储矩阵的旧版本(例如,当循环执行一次时的存储矩阵),而不是存储矩阵的最终版本。这是因为在后续训练期间会更新内存矩阵。结果,autograd无法工作,因为它不存储旧版本的内存矩阵。
记忆矩阵始终是手工更新的,不需要计算梯度。
我发现tensorflow中的scatter_update
可以做到这一点,如何在Pytorch中实现呢?
版权声明:本文内容由互联网用户自发贡献,该文观点与技术仅代表作者本人。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如发现本站有涉嫌侵权/违法违规的内容, 请发送邮件至 dio@foxmail.com 举报,一经查实,本站将立刻删除。