微信公众号搜"智元新知"关注
微信扫一扫可直接关注哦!

如何在pytorch中不占用存储空间?

如何解决如何在pytorch中不占用存储空间?

我正在pytorch中循环运行一个时间融合变压器,在该循环中,我需要每x个时间间隔重新训练模型。我正在使用模型检查点来保存每列火车中的最佳模型。

chkpt_callback = ModelCheckpoint('C:\\Users\\Administrator\\Documents\\chk.ckpt')

在这里遇到几个问题。模型检查点不会覆盖上一个模型检查点,并且会继续创建新的检查点文件。此外,我必须手动删除的每个循环都添加了新的pytorch lightning模型版本。

此外,我使用EarlyStopping功能训练过的先前型号正在占用存储空间,而我找不到它们。

是否有人使用Trainer成功构建了pytorch模型而又没有留下存储空间?

版权声明:本文内容由互联网用户自发贡献,该文观点与技术仅代表作者本人。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如发现本站有涉嫌侵权/违法违规的内容, 请发送邮件至 dio@foxmail.com 举报,一经查实,本站将立刻删除。