微信公众号搜"智元新知"关注
微信扫一扫可直接关注哦!

减少误报 ML 模型

如何解决减少误报 ML 模型

在训练 ML 模型时,有没有一种很好的方法来限制误报?

假设您从具有两个类的平衡数据集开始。您开发了一个用于二元分类的 ML 模型。由于任务很简单,输出分布将分别在 0 和 1 处达到峰值,并在 0.5 附近重叠。然而你真正关心的是你的误报率是可持续的,不能超过一定的数量。 所以充其量你希望在 pred > 0.8 时你只有一个类。

目前我正在对两个类进行加权以惩罚类“0”上的错误

history = model.fit(...,class_weight={0:5,1:1},...)

正如预期的那样,它确实降低了区域 pred > 0.8 的 fpr,当然它会恶化类 1 的召回率。

我想知道是否还有其他方法可以强制执行此操作。

谢谢

解决方法

根据你的问题,你可以考虑一类分类svm。这篇文章很有用:https://towardsdatascience.com/outlier-detection-with-one-class-svms-5403a1a1878c。这篇文章还说明了为什么最好考虑一类分类而不是其他一些经典技术,例如过采样/欠采样或类加权。但当然这取决于你想解决的问题。

版权声明:本文内容由互联网用户自发贡献,该文观点与技术仅代表作者本人。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如发现本站有涉嫌侵权/违法违规的内容, 请发送邮件至 dio@foxmail.com 举报,一经查实,本站将立刻删除。