微信公众号搜"智元新知"关注
微信扫一扫可直接关注哦!

大型图像数据集的内存管理

如何解决大型图像数据集的内存管理

我正在尝试使用大型图像数据集训练图像分类模型,但我无法使用完整数据集进行训练,因为我在将其加载到内存时遇到了问题。 这个问题有解决方案吗?

解决方法

当然!您是否考虑过使用生成器训练模型?您可以在文档中找到有关该主题的更多信息:

https://www.tensorflow.org/api_docs/python/tf/keras/Model#fit 请注意,您可以将生成器传递给 fit 方法。我认为这将是最好的方法。

另一种有点幼稚的方法是在可以放入内存的批次上迭代训练模型,François Chollet 在以下问题中证实了这一点: https://github.com/keras-team/keras/issues/4446 (“是的,连续调用 fit 将逐步训练模型。”)

您也可以考虑使用 train_on_batch 方法: https://www.tensorflow.org/api_docs/python/tf/keras/Model#train_on_batch

版权声明:本文内容由互联网用户自发贡献,该文观点与技术仅代表作者本人。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如发现本站有涉嫌侵权/违法违规的内容, 请发送邮件至 dio@foxmail.com 举报,一经查实,本站将立刻删除。