微信公众号搜"智元新知"关注
微信扫一扫可直接关注哦!

用于语义分割任务的大图像-Pytorch内存不足

如何解决用于语义分割任务的大图像-Pytorch内存不足

我有ImageNet的大图像(256,256个),我想训练语义分割任务。因此,输出将为(B,Classes,C,H,W)我有256节课。对于pytorch定义的CrossEntropyLoss或NLL,我需要使用dtype long Docs

但是,类型为long的(256,3,256,256)张量仅超过0.4GB的内存,因此无法在GPU中针对超过4的批处理大小进行训练(考虑到该模型需要大量内存以及反向传播算法)。 / p>

我正在使用具有16GB内存的Google Cloud T4。 我可以针对这个问题采取任何技巧来训练更大的批量吗?对于我可以训练的批量大小,需要几个月的时间才能完成训练。

版权声明:本文内容由互联网用户自发贡献,该文观点与技术仅代表作者本人。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如发现本站有涉嫌侵权/违法违规的内容, 请发送邮件至 dio@foxmail.com 举报,一经查实,本站将立刻删除。