微信公众号搜"智元新知"关注
微信扫一扫可直接关注哦!

python – PyTorch,nn.Sequential(),访问nn.Sequential()中特定模块的权重

这应该是一个快速的.当我在PyTorch中使用预定义模块时,我通常可以非常轻松地访问其权重.但是,如果我先将模块包装在nn.Sequential()中,如何访问它们?请看下面的玩具示例

class My_Model_1(nn.Module):
    def __init__(self,D_in,D_out):
        super(My_Model_1,self).__init__()
        self.layer = nn.Linear(D_in,D_out)
    def forward(self,x):
        out = self.layer(x)
        return out

class My_Model_2(nn.Module):
    def __init__(self,D_out):
        super(My_Model_2,self).__init__()
        self.layer = nn.Sequential(nn.Linear(D_in,D_out))
    def forward(self,x):
        out = self.layer(x)
        return out

model_1 = My_Model_1(10,10)
print(model_1.layer.weight)
model_2 = My_Model_2(10,10)
# How do I print the weights Now?
# model_2.layer.0.weight doesn't work.

解决方法

访问权重的一个简单权重是使用模型的state_dict().

这适用于您的情况:

for k,v in model_2.state_dict().iteritems():
    print("Layer {}".format(k))
    print(v)

一个选择是获取modules()迭代器.如果您事先知道图层的类型,这也应该有效:

for layer in model_2.modules():
   if isinstance(layer,nn.Linear):
        print(layer.weight)

版权声明:本文内容由互联网用户自发贡献,该文观点与技术仅代表作者本人。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如发现本站有涉嫌侵权/违法违规的内容, 请发送邮件至 dio@foxmail.com 举报,一经查实,本站将立刻删除。

相关推荐