如何解决数据集大小未知时的 Pytorch 数据集
我需要一个自定义 PyTorch 数据集来生成如下训练图像。从训练集中获取图像。选择一个随机位置来裁剪图像的 352x352 片段。计算有用性分数:如果分段包含大量 class_A
像素,则分数增加,并且选择分段像素的次数越多,分数就越低。如果分数高于某个阈值,则返回该段并更新所选像素的计数器。如果所选段的值低于阈值,请尝试另一个段。如果连续四个片段得分低于阈值(图像没有 class_A
像素或 class_A
像素出现在多个片段上),则转到下一个图像并重复该过程。处理完所有图像后,Epoch 结束。
由于选择过程的随机性,我无法提供 __len__
方法或 __getitem__
方法。
我应该如何覆盖这些方法,以便我可以使用我的自定义 Dataset
类?
版权声明:本文内容由互联网用户自发贡献,该文观点与技术仅代表作者本人。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如发现本站有涉嫌侵权/违法违规的内容, 请发送邮件至 dio@foxmail.com 举报,一经查实,本站将立刻删除。