微信公众号搜"智元新知"关注
微信扫一扫可直接关注哦!

如何在PyTorch1.6中更改学习率

如何解决如何在PyTorch1.6中更改学习率

我正在使用PyTorch,并且想在一段时间后更改学习率。

但是,大多数文档中提供的代码是:

Reader

不起作用。

实际上PyCharm暗示了这一点:

类“亚当”的未解析属性引用“ params_group”

结果,抛出的错误是:

AttributeError:“ Adam”对象没有属性“ params_group”

如何在PyTorch(1.6)中手动更改学习率?

解决方法

Param_groups不是pytorch设计的可行解决方案,因此您应该实现pytorch.optim.lr_scheduler。在其他stackoverflow答案here上了解有关此内容的更多信息。

import torch.optim.lr_scheduler.StepLR #step learning rate
scheduler = StepLR(optimizer,step_size=5,gamma=0.1)
,

在上面的评论中,@ Alizera Omidi提供了答案。

params_group中有一个错字,实际上是param_groups

版权声明:本文内容由互联网用户自发贡献,该文观点与技术仅代表作者本人。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如发现本站有涉嫌侵权/违法违规的内容, 请发送邮件至 dio@foxmail.com 举报,一经查实,本站将立刻删除。