如何解决在for循环中访问生成器/迭代器的元素时,python是否返回元素的引用或副本?
我对python的这种行为感到有些困惑。假设我写
x = [1,2]
for i in x:
i += 1
print(x)
输出应为
[1,2]
因此,似乎在运行代码时,i
遍历x
中元素的副本,因为i += 1
不会修改x
中的值。 / p>
但是,当我阅读pytorch官方文档时,我看到了这段代码:
for iterations...
...
for param in model.parameters():
param.grad = None
loss.backward()
这是zero_grad()
的适当替代。但是,要使其正常工作,param
必须是引用,而不是副本。
这两个循环中到底发生了什么?
版权声明:本文内容由互联网用户自发贡献,该文观点与技术仅代表作者本人。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如发现本站有涉嫌侵权/违法违规的内容, 请发送邮件至 dio@foxmail.com 举报,一经查实,本站将立刻删除。