如何解决批量大小如何影响 Keras 中 predict/predict_on_batch 方法的质量?
在提高 LSTM-NN 速度的过程中,我偶然发现了一个问题。
批量大小如何影响 predict/predict_on_batch 方法的质量?
指定:我知道它确实会影响训练阶段的梯度计算,从而影响预测结果, 但是如果使用不同的批量大小进行批量预测,预测结果是否会有所不同 (具有相同大小的训练批次大小)? 还是应该始终使用相同的批大小进行训练/拟合和预测,如果是这样,为什么?
我尝试了什么:
我有一个很好的工作(0.96 检测率和 0 误报)LSTM 用于异常检测 但是由于预测缓慢(40分钟),需要很长时间才能浏览所有测试文件, 使用用 512 的 batch_size 训练的 predict(x)。 当使用带有 batch_size=1 的 predict_on_batch 时,它再次需要 35 分钟以 0.96 DR 和 0 FA 进行测试。
当使用 predict_on_batch(batch,batch_size) 时,与 predict(batch,batch_size) 相同, 批量大小为 512(与训练中使用的相同)而不是 predict(x) 只需要大约 32 秒 但结果更糟(0.63 DR,62455 FA)。 类似的适用于大于 1 的较小的 batch_size 值。
此线程中的答案:Prediction is depending on the batch size in Keras 已经过时了,但它仍然准确吗(归咎于标准化)?
我真的不明白这里发生了什么,希望有人能澄清!
使用的版本:
Keras 2.3.1
Python 3.7.4
版权声明:本文内容由互联网用户自发贡献,该文观点与技术仅代表作者本人。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如发现本站有涉嫌侵权/违法违规的内容, 请发送邮件至 dio@foxmail.com 举报,一经查实,本站将立刻删除。