微信公众号搜"智元新知"关注
微信扫一扫可直接关注哦!

使用一个 GPU 和共享内存训练火炬模型

如何解决使用一个 GPU 和共享内存训练火炬模型

我刚开始训练 pytorch 模型 并在 GPU 上 我试过在 Windows 上训练它,但总是使用专用内存(10GB)并且不使用共享内存 我曾尝试使用多处理来增强其性能,但我一直收到错误消息: 类型错误:无法腌制“模块”对象

解决方案通常是在加载数据时使用 num_wrokers =0 我实际上在加载数据后使用了多处理 并且只需要利用共享内存

我正在重新训练 Meta-sr 扬声器验证码,特别是训练文件https://github.com/seongmin-kye/meta-SR/blob/b4c1ea1728e33f7bbf7015c38f508f24594f3f88/train.py

我编辑了第 92 行以使用共享 GPU 内存,如下所示 代替: train(train_generator,model,objective,optimizer,n_episode,log_dir,scheduler) 致:

    model.share_memory()
    p = mp.Process(target=train,args=(train_generator,scheduler))
    p.num_workers=0
    p.start()
    p.join()

如果需要添加更多信息,请告诉我 提前致谢

版权声明:本文内容由互联网用户自发贡献,该文观点与技术仅代表作者本人。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如发现本站有涉嫌侵权/违法违规的内容, 请发送邮件至 dio@foxmail.com 举报,一经查实,本站将立刻删除。