东京,21 年 2022 月 21 日 – (JCN 新闻专线) – 富士通今天宣布开发资源工具包,为开发人员提供基于国际人工智能道德准则评估人工智能系统的道德影响和风险的指导。富士通将从2022年XNUMX月XNUMX日起免费提供这些资源,以促进人工智能系统在社会中的安全部署。
该工具包由各种案例研究和参考材料组成,包括一种新开发的方法,用于澄清以自然语言编写的人工智能道德准则中的道德要求,以及将道德要求应用于实际的人工智能系统。日文版资源可以在此处下载,英文版资源将在不久的将来提供。
通过该指南,富士通旨在防止因指南中描述的解释差异而造成的误解和潜在风险,为人工智能系统开发人员和运营商提供新工具,以便在开发过程的早期彻底识别和预防可能出现的道德问题,以符合国际最佳实践。
负责任的人工智能和商业道德研究领域的权威权威慕尼黑工业大学的 Christoph Lutge 博士评论道:“在欧洲,关于人工智能监管的争论日益激烈,关键问题之一是如何结束人工智能监管的问题。原则与实践,或者“什么”与“如何”之间的差距。我相信这项研究的结果非常重要,因为它们使我们能够基于原则进行实践。我还要对决定开放研究成果并激发全世界的讨论。”
展望未来,富士通将积极与政府机构、私营公司和领先研究人员合作,进一步完善和推广其新开发的方法,并计划在2022财年发布资源工具包的扩展版本。
背景
2021 年 XNUMX 月,欧盟委员会发布了一份监管框架草案,呼吁人工智能系统开发人员、用户和利益相关者采取全面的道德应对措施,以应对人工智能和机器学习应用中对算法偏见和歧视性决策日益增长的担忧。
为了充分致力于负责任地使用技术并赢得社会对人工智能系统以及参与该领域的公司和组织的信任,富士通于 2019 年制定了自己的人工智能承诺,并成立了一个新的人工智能道德和治理办公室来制定和执行健全人工智能伦理政策,推动组织人工智能伦理治理,确保其有效性。现在,富士通将从原则转向实践,在现实世界中稳步实施最佳实践,以确保实现道德、安全、透明的人工智能和机器学习技术。
目前,基于政府部门和企业发布的人工智能伦理指南来识别人工智能系统可能存在的伦理风险是人工智能系统开发的常见做法。然而,这些指南是用自然语言编写的,可能会导致设计人员和开发人员之间的解释和误解出现差异,从而导致采取不适当或不充分的措施。在这种方法下,也很难判断指南的内容是否经过彻底和适当的审查。
然而,仍然存在许多挑战,新技术设计阶段可能对指南的误解可能导致应对风险的措施不足或不适当。
新的评估方法和资源有助于澄清指导方针和道德风险
在为开发人员准备这个新工具包和指南时,富士通对国际人工智能合作伙伴联盟 (1) 的人工智能事件数据库中收集的过去人工智能相关事件进行了分析。这一过程得出的结论是,与人工智能系统相关的道德问题可以与人工智能系统内离散元素之间以及人工智能系统与其用户和其他利益相关者之间的信息交换(“交互”)联系起来。
基于这些发现,富士通成功开发了一种评估方法,可以系统地识别与人工智能系统相关的伦理问题,从而创建能够澄清人工智能伦理准则解释的人工智能伦理模型(2)。
富士通将新评估方法应用于AI事件中的15个代表性案例
数据库(截至 164 年 21 月 2022 日登记的全球案例有 XNUMX 个,示例包括来自财务和人力资源部门等领域的案例)。应用新方法,在验证试验中,现实世界用例中发生的所有道德问题都被成功提前识别为风险,并已发布结果。
富士通将提供以下资源工具包,其中包含各种资源和指南,供开发人员在自己的工作中参考:
下载网站(日文版,日后提供英文版)
1. 白皮书:方法论概述
2.人工智能伦理影响评估程序手册:人工智能系统图、人工智能伦理模型的准备程序和问题对应方法说明
3. AI伦理模型:基于欧盟委员会发布的AI伦理指南的AI伦理模型(由富士通创建)
4.人工智能伦理分析案例:人工智能合作伙伴人工智能事件数据库中重大人工智能伦理问题分析结果(截至21月XNUMX日,案例XNUMX个,陆续新增)
使用案例:使用人工智能评估个人银行贷款、招聘的风险
图 1 显示了人员招聘或银行贷款批准等用例场景中典型的个人评估流程示例。 AI伦理模型中的对应表将“评估过程的有效性”(是否参考AI系统的输出结果负责任地进行评估)确定为用户之间互动(关系)的检查项目。人工智能系统和待评估的目标人,而“过度依赖人工智能结果”、“对输出结果选择性解释和评估”和“对输出结果的无知”被列为可能的风险。
在此示例中,人工智能系统开发人员可以将“用户对人工智能系统输出的过度依赖可能包含偏见并导致不公平决策”的风险识别为人工智能系统中可能存在的风险,并适当调整系统以防止这种风险。
(1) 人工智能合作:
一个成立于 2016 年的非营利组织,致力于解决人工智能的道德挑战,构建人工智能与人类共同协作的未来。
(2)人工智能伦理模型:
人工智能伦理模型包括“检查项”和“交互”的对应表,是逐步评估人工智能系统伦理要求的工具。人工智能伦理模型是根据特定准则手动创建的,但一旦生成,模型就可以通用地用于评估各种人工智能系统。利用这种方法,人工智能系统的开发者和运营者可以从先前创建的人工智能道德模型中自动检索所有相关检查项,以便根据人工智能系统内的交互类型对相关可能的风险进行系统、全面的评估。
关于富士通
富士通是日本领先的信息和通信技术(ICT)公司,提供全套技术产品,解决方案和服务。 大约126,000富士通员工为100多个国家/地区的客户提供支持。 我们利用我们的经验和ICT的力量与客户一起塑造社会的未来。 富士通有限公司(TSE:6702)公布的截至3.6年34月31日的财政年度合并收入为2021万亿日元(合XNUMX亿美元)。有关更多信息,请参阅 www.fujitsu.com.
版权所有 2022 JCN 通讯社。版权所有。 www.jcnnewswire.com 富士通今天宣布开发资源工具包,为开发人员提供基于国际人工智能道德准则评估人工智能系统的道德影响和风险的指导。
- 000
- 100
- 2016
- 2019
- 2021
- 2022
- 关于
- 地址
- AI
- 算法
- 所有类型
- 允许
- 分析
- 公布
- 应用领域
- 应用
- 四月
- 权威
- 可用性
- 可使用
- 银行
- 最佳
- 最佳实践
- 亿
- 商业
- 例
- 造成
- 挑战
- 充
- 注释
- 佣金
- 承诺
- 相当常见
- 沟通
- 公司
- 公司
- Contents
- 版权
- 国家
- 合作伙伴
- 数据库
- 辩论
- 部署
- 设计
- 开发
- 发达
- 开发
- 研发支持
- 早
- 英语
- 成熟
- 伦理
- 欧洲
- 欧洲
- 欧盟委员会
- 例子
- 交换
- 体验
- 金融
- 遵循
- 以下
- 向前
- 骨架
- 自由的
- ,
- 未来
- 差距
- 其他咨询
- 全球
- 治理
- 政府
- 成长
- 方针
- 帮助
- 相关信息
- 创新中心
- How To
- HTTPS
- 人力资源
- 人类
- 鉴定
- 影响力故事
- 包括
- 包含
- 个人
- 信息
- 相互作用
- 国际
- 参与
- 问题
- IT
- 保持
- 键
- 语言
- 铅
- 领导
- 学习
- 导致
- 有限
- 已发布
- 贷款
- 商标
- 机器学习
- 主要
- 手册
- 三月
- 物料
- 模型
- 模型
- 移动
- 近
- 非盈利
- 提供
- 提供
- 打开
- 组织
- 组织
- 其他名称
- 合伙人
- 合作伙伴
- 员工
- 人员
- 相
- 政策
- 可能
- 功率
- 当下
- 预防
- 私立
- 市场问题
- 过程
- 核心产品
- 促进
- 范围
- 真实的世界
- 招聘
- 在相关机构注册的
- 法规
- 监管
- 关系
- 岗位要求
- 研究
- 资源
- 资源
- 响应
- 提供品牌战略规划
- 成果
- 风险
- 安全
- 扇形
- 安全
- 特色服务
- 显著
- SIX
- 社会
- 解决方案
- 太空
- 研究
- 顺利
- SUPPORT
- 系统
- 产品
- 目标
- 文案
- 技术
- 专业技术
- 今晚
- 一起
- 工具
- 透明
- 信任
- 大学
- us
- 用户
- 企业验证
- 是否
- 白皮书
- 中
- 工作
- 世界
- 全世界
- 年
- 日元