微信公众号搜"智元新知"关注
微信扫一扫可直接关注哦!

PyTorch:是否可以跨进程发送张量保持梯度

如何解决PyTorch:是否可以跨进程发送张量保持梯度

我正在尝试使用分布式库并行化我的 pytorch 网络。这个想法是创建一个与此处描述的类似的案例:https://pytorch.org/tutorials/intermediate/model_parallel_tutorial.html 但仅使用 cpu。因此,每个进程负责我网络中的一层。

问题在于,为了正确地向后,跨进程发送的张量需要在通信中保持其梯度。我知道 Queue 无法处理这种行为,我想知道他们是否可以使用 Gloo、mpi 或其他方式来实现这一点...

谢谢!

版权声明:本文内容由互联网用户自发贡献,该文观点与技术仅代表作者本人。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如发现本站有涉嫌侵权/违法违规的内容, 请发送邮件至 dio@foxmail.com 举报,一经查实,本站将立刻删除。