在本周举行的Build 2020开发者大会上,微软宣布为Azure机器学习添加新功能。Azure machine learning是一个基于云的环境,用于训练、部署和管理人工智能模型。WhiteNoise是一个针对不同隐私的工具包,现在可以在Azure或者GitHub的开源平台上使用。它增加了新的人工智能解释和公平性工具,以及新的数据、模型和实验访问控制;细粒度可追溯性和血统的新技术;新的机密机器学习产品;和新的工作流责任文档。
这一努力是微软朝着更容易解释、更安全、更“公平”的人工智能系统努力的一部分。研究表明,面部识别系统存在广泛的偏见。比如人工智能有隐私问题,因为很多模型不能使用加密数据。除了今天发布的Azure机器学习功能,微软也在试图解决这些问题和其他挑战,包括人工智能偏见检测工具,减少偏见错误的内部努力,人工智能道德检查表,以及为追求人工智能提供建议的委员会(Aether)。此外,微软副总裁埃里克博伊德(Eric Boyd)表示,XBox、Bing、Azure和微软365部门的团队都参与了今天上午发布的一些工具包的开发,并亲自使用。
“企业现在正在研究如何开发易于解释和遵守法规(如非歧视和隐私法规)的人工智能应用。”博伊德在接受VentureBeat的电话采访时表示,“他们需要与这些人工智能模型相结合的工具,以便更容易地解释、理解、保护和控制数据和模型。”“我们相信我们对待人工智能的方式是不同的。它基于深入研究的坚实基础,采用深思熟虑的方法,并致力于开源。”
WhiteNoise Toolkit是与哈佛定量社会科学研究所和工程学院的研究人员合作开发的。它利用不同的隐私,使人们能够从数据中获得洞察力,同时保护个人信息(如姓名或出生日期)。通常,差分隐私需要在原始数据中注入一点噪声,然后输入到本地机器学习模型中,这使得恶意行为者很难从训练好的模型中提取原始文件。如果观察者看到了一个算法的输出,但不知道它的计算中是否使用了特定个体的信息,那么这个算法就可以视为差分私有。
WhiteNoise通过库中不同的私有算法和发布机制,以及api、analysis和verifier定义的分析和评估,提供可扩展的隐私保护查询和统计,计算数据隐私的总损失。微软表示,它可以让一组医院合作,建立一个更好的癌症治疗疗效预测模型。例如,与此同时,它有助于遵守法律要求,保护医院信息的隐私,并确保不会从模型中泄露任何个人患者数据。
由微软人工智能和工程研究伦理委员会(Aether)支持的另一个工具包Fairlearn将于6月与Azure machine learning整合,旨在评估人工智能系统的公平性,减轻算法中任何不公平的问题。在仪表盘中,Fairlearn定义了人工智能系统是否对人做了不公平的行为,主要关注两个危害:分发危害和服务质量危害。当人工智能系统扩大或保留机会、资源或信息时,分配将被破坏——例如,在招聘、入学和贷款中。服务质量风险是指一个系统对一个人是否和对另一个人一样有效,即使没有机会、资源或信息被扩展或保留。
Fairlearn遵循一种称为“群体权益”的方法,旨在找出哪些群体的个人有受到伤害的风险。数据科学家指定工具包中的相关群体(例如性别、肤色和种族),这些群体是特定于应用的;群体公平通过一组约束形式化,要求人工智能系统的某些方面(或多个方面)的行为在群体之间具有可比性。
据微软称,安永会计师事务所;专业服务公司YoungYoung Fairlearn用于评估模型输出在性别方面的公平性。工具包显示,男性和女性的积极贷款决定相差15.3%。然后,Young的建模团队开发并训练了几个校正模型,并可视化了公平性和模型准确性之间的常见权衡。该团队最终得到了一个最终模型,该模型优化并保留了整体准确性,但将男女差异缩小到了0.43%。
在新的工具包列表中,最后一个是paraphrase ml,它最早出现在去年的alpha中,但在今天的Azure机器学习中也可以使用。Expltml结合了许多机器学习解释技术,通过可视化模型的行为和预测背后的推理来帮助解释。它可以推荐在任何给定用例中对模型最重要的参数(或变量),并可以解释为什么这些参数是重要的。
博伊德说:“我们希望通过Azure机器学习为我们的客户提供这项服务,帮助他们理解和解释他们的模型发生了什么。”“(这些工具包),我们认为我们已经给了开发人员很大的权力来真正理解他们的模型,他们可以看到他们的可解释性[和]公平性,并开始理解其他参数不满足于以不同的方式做出预测或摆动模型。”
版权声明:本文内容由互联网用户自发贡献,该文观点与技术仅代表作者本人。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如发现本站有涉嫌侵权/违法违规的内容, 请发送邮件至 dio@foxmail.com 举报,一经查实,本站将立刻删除。