道德 AI 团队表示,偏见赏金可以更快地暴露算法缺陷 PlatoBlockchain 数据智能。 垂直搜索。 哎。

道德 AI 团队表示,偏见赏金可以更快地暴露算法缺陷

事实证明,人工智能系统中的偏见是努力将技术更广泛地融入我们社会的主要绊脚石。 一项新举措将奖励研究人员发现任何偏见 人工智能系统 可以帮助解决问题。

这项工作以软件公司支付给提醒他们注意的网络安全专家的漏洞赏金为蓝本。f 其产品中的任何潜在安全漏洞。 这个想法不是一个新想法。 “偏见赏金”是 首先提出 由一个早在 2018 年,我就是研究员兼企业家 JB Rubinovitz,各种组织已经面临这样的挑战。

但新的努力旨在创建一个独立于任何特定组织的偏见赏金竞赛的持续论坛。 由来自包括 Twitter 在内的一系列公司的志愿者组成,所谓的“Bias Buccaneers”计划定期举行比赛或“叛变”,并于本月早些时候发起了第一次此类挑战。

漏洞赏金是网络安全中的一种标准做法,尚未在算法偏见社区找到立足点,”orga尼泽 在他们的网站上说. “虽然最初的一次性活动表现出对赏金的热情,但 Bias Buccaneers 是第一个旨在创建持续 Mutinies、与技术公司合作并为对 AI 系统进行透明和可重复评估铺平道路的非营利组织。”

第一场比赛旨在解决图像检测算法中的偏见,而不是让人们瞄准特定的人工智能系统, 竞赛鼓励研究人员构建可以检测有偏见的数据集的工具。 这个想法是创建一个机器学习模型,该模型可以准确地标记数据集中的每个图像,包括肤色、感知性别和年龄组。 比赛于30月XNUMX日结束 一等奖6,000美元,二等奖4,000美元,三等奖2,000美元。

挑战的前提是,算法偏差的来源通常不是算法本身,而是训练数据的性质。 可以快速评估集合平衡程度的自动化工具 of 图像与通常是歧视来源的属性相关,可以帮助人工智能研究人员避免明显有偏见的数据源。

但组织者表示,这只是努力建立一个工具包来评估数据集、算法和应用程序中的偏见,并最终为如何处理制定标准的第一步。l 具有算法偏见、公平性和可解释性。

这是 不是唯一的这样的努力. 新一届领导人之一 倡议 是 Twitter 的 Rumman Chowdhury,去年他帮助组织了第一届 AI 偏见赏金竞赛,目标是平台用于裁剪图片的算法 用户投诉 偏爱白皮肤和男性面孔,而不是黑人和女性面孔。

比赛让黑客可以访问公司的模型,并要求他们找出其中的缺陷。 参赛者 发现了各种各样的问题, 包括偏爱刻板美丽的面孔, 厌恶 白发的人(年龄的标志),和 对模因的偏好 用英语而不是阿拉伯语脚本。

斯坦福大学最近还结束了一场竞赛,挑战团队提出旨在帮助人们审计商业部署或开源人工智能系统的工具以进行歧视。 现行和即将出台的欧盟法律可能会强制要求公司定期审计其数据和算法。

但采取 人工智能漏洞赏金和算法审计 成为主流并使其有效说起来容易做起来难。 不可避免地,以算法为基础的公司将抵制任何诋毁它们的努力。

借鉴审计系统的经验教训 在其他领域,例如金融和环境与健康法规,研究人员 最近概述 有效问责制的一些关键要素。 最重要的之一 标准 他们确定独立第三方的有意义的参与。

研究人员指出,目前的自愿 AI 审计往往涉及利益冲突,例如目标组织为审计支付费用、帮助确定审计范围,或者有机会在结果公布之前对其进行审查。 这种担忧反映在最近的一份报告中 算法正义联盟, 哇ch注意到特大号d 目标组织在当前网络安全漏洞赏金计划中的作用。

找到一种方法来资助和支持真正独立的 AI 审计员和漏洞搜寻者将是一项重大挑战,尤其是当他们将与世界上一些资源最充足的公司对抗时。 不过幸运的是,业界似乎越来越意识到解决这个问题对于维持用户对其服务的信任至关重要。

图片来源: 雅各布·罗森(Jakob Rosen) / Unsplash

时间戳记:

更多来自 奇异枢纽