如何解决PyTorch 中的可学习标量权重
我有两个并行运行的神经网络。每个都给出了一个相同大小的特征图,比如 Nx1。现在我想要像这样 w1 * embed1 + w2 * embed2 的这些嵌入的加权平均值。我已经尝试过这些 1 2。但是权重没有更新。任何帮助,将不胜感激。这是我尝试这样做的方法:
class LinearWeightedAvg(nn.Module):
def __init__(self,n_inputs):
super(LinearWeightedAvg,self).__init__()
self.weight1 = Variable(torch.randn(1),requires_grad=True).cuda()
self.weight2 = Variable(torch.randn(1),requires_grad=True).cuda()
def forward(self,inp_embed):
return self.weight1 * inp_embed[0] + self.weight2 * inp_embed[1]
class EmbedBranch(nn.Module):
def __init__(self,feat_dim,embedding_dim):
super(EmbedBranch,self).__init__()
fc_layer1 = fc_layer
def forward(self,x):
x = self.fc_layer1(x)
return x
class EmbeddingNetwork(nn.Module):
def __init__(self,args,N):
super(EmbeddingNetwork,self).__init__()
embedding_dim = N
self.embed1 = EmbedBranch(N,N)
self.embed2 = EmbedBranch(N,N)
self.comb_branch = LinearWeightedAvg(metric_dim)
self.args = args
if args.cuda:
self.cuda()
def forward(self,emb1,emb2):
embeds1 = self.text_branch(emb1)
embeds2 = self.image_branch(emb2)
combined = self.comb_branch([embeds1,embeds2])
return combined
def train_forward(self,embed1,embed2):
combined = self(embed1,embed2)
embeds = model.train_forward(embed1,embed2)
loss = loss_func(embeds,labels)
running_loss.update(loss.data.item())
optimizer.zero_grad()
loss.backward()
我还希望权重在 0-1 范围内。
谢谢,
解决方法
您应该使用 self.weightx = torch.nn.Parameter(your_inital_tensor)
将张量注册为模型的可学习参数。
版权声明:本文内容由互联网用户自发贡献,该文观点与技术仅代表作者本人。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如发现本站有涉嫌侵权/违法违规的内容, 请发送邮件至 dio@foxmail.com 举报,一经查实,本站将立刻删除。