这应该是一个快速的.当我在PyTorch中使用预定义模块时,我通常可以非常轻松地访问其权重.但是,如果我先将模块包装在nn.Sequential()中,如何访问它们?请看下面的玩具示例
class My_Model_1(nn.Module): def __init__(self,D_in,D_out): super(My_Model_1,self).__init__() self.layer = nn.Linear(D_in,D_out) def forward(self,x): out = self.layer(x) return out class My_Model_2(nn.Module): def __init__(self,D_out): super(My_Model_2,self).__init__() self.layer = nn.Sequential(nn.Linear(D_in,D_out)) def forward(self,x): out = self.layer(x) return out model_1 = My_Model_1(10,10) print(model_1.layer.weight) model_2 = My_Model_2(10,10) # How do I print the weights Now? # model_2.layer.0.weight doesn't work.
解决方法
访问权重的一个简单权重是使用模型的state_dict().
这适用于您的情况:
for k,v in model_2.state_dict().iteritems(): print("Layer {}".format(k)) print(v)
另一个选择是获取modules()迭代器.如果您事先知道图层的类型,这也应该有效:
for layer in model_2.modules(): if isinstance(layer,nn.Linear): print(layer.weight)
版权声明:本文内容由互联网用户自发贡献,该文观点与技术仅代表作者本人。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如发现本站有涉嫌侵权/违法违规的内容, 请发送邮件至 dio@foxmail.com 举报,一经查实,本站将立刻删除。