微信公众号搜"智元新知"关注
微信扫一扫可直接关注哦!

填补 AI 安全空白:谷歌上线安全人工智能框架风险评估工具

IT之家 10 月 26 日消息,谷歌公司于 10 月 24 日发布博文,宣布推出 Saif 风险评估工具,旨在帮助人工智能开发者和组织评估其安全态势,识别潜在风险,并实施更强的安全措施。

Saif 简介

IT之家注:谷歌去年发布了安全人工智能框架(Saif),旨在帮助用户安全、负责任地部署 AI 模型,Saif 不仅分享了最佳实践,还为行业提供了一个安全设计的框架。

为了推广这一框架,谷歌与行业伙伴共同成立了安全人工智能联盟(CoSAI),以推动关键的 AI 安全措施。

Saif 风险评估工具

谷歌目前已经在新网站 Saif.Google 上提供 Saif 风险评估工具,该工具以问卷形式运行,用户回答后会生成定制化的检查清单,指导他们确保 AI 系统的安全。

工具涵盖多个主题包括

AI 系统的训练、调优和评估

对模型和数据集的访问控制

防止攻击和对抗性输入

生成性 AI 的安全设计与编码框架

用户在回答问题后,工具会立即生成一份报告,突出 AI 系统面临的具体风险,如数据中毒、提示注入和模型源篡改等。

每个风险都附有详细解释及建议的缓解措施,此外用户还可以通过互动 Saif 风险地图了解在 AI 开发过程中如何引入与缓解不同的安全风险。

版权声明:本文内容由互联网用户自发贡献,该文观点与技术仅代表作者本人。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如发现本站有涉嫌侵权/违法违规的内容, 请发送邮件至 dio@foxmail.com 举报,一经查实,本站将立刻删除。

相关推荐