如何解决如何在 PyTorch 中与另一个数据加载器一起采样
假设我的训练/有效/测试数据集 batch_size
和 shuffle
正常。
当我进行训练/验证/测试时,我想从每个样本的整个数据集中抽取一定数量(称为 memory_size
)的新样本。
例如,我将batch_size
设置为256
,让数据集打乱,将memory_size
设置为80
。
在每个 forward
步骤中,不仅使用数据集中的每个样本,还使用整个原始数据集的样本数据,其大小为 memory_size
,我想在 {{1} 中使用它}.让新样本作为内存(是的,我想采用 Memory Networks 的想法)。训练集中每个样本之间的记忆可以重叠。
我正在使用 PyTorch 和 PyTorch-Lightning。我可以为每个 forward
、dataloader
和 train_dataloader
创建新内存 val_dataloader
然后使用原始数据加载器加载它吗?或者有没有更好的方法来实现我想要的?
版权声明:本文内容由互联网用户自发贡献,该文观点与技术仅代表作者本人。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如发现本站有涉嫌侵权/违法违规的内容, 请发送邮件至 dio@foxmail.com 举报,一经查实,本站将立刻删除。