欧盟人工智能法案——对银行业和金融科技有何影响?

欧盟人工智能法案——对银行业和金融科技有何影响?

欧盟人工智能法案——对银行业和金融科技有何影响? Plato区块链数据智能。垂直搜索。人工智能。

昨天,欧洲议会对人工智能法案进行了最终投票,该法案将于今年 5 月生效,这预示着世界上最全面的人工智能立法的诞生。就像 GDPR 一样,它将对欧盟以外的全球范围产生影响。

《人工智能法案》提供了一个全面的框架,以确保开发值得信赖的人工智能和负责任地使用人工智能工具,特别是透明度、偏见、侵犯隐私、安全风险以及传播错误信息的可能性。
作为人工智能技术开发中的人类监督。 

在这些指南中,使用了七项不具约束力的人工智能道德原则,旨在帮助确保人工智能值得信赖且符合道德规范。原则包括

– 人力机构和监督;

– 技术稳健性和安全性;

– 隐私和数据治理;

- 透明度;

– 多样性、非歧视和公平;

– 社会和环境福祉和责任。

采用基于风险的分层方法,银行和医疗保健等行业的高风险人工智能系统将面临严格的法律义务,并因违规而面临巨额处罚。该法案将人工智能分为四个风险等级,从最小到不可接受,每个等级
随着义务不断升级。

欧盟人工智能法案禁止开发、部署和使用某些人工智能系统,包括:

– 社交评分系统

- 社会工程学

– 公共场所实时远程生物特征识别

– 基于人工智能的分析和行为预测

– 抓取和增强面部图像以扩展数据库

– 基于人工智能的操纵技术破坏了自主性和自由选择 

并非所有人工智能系统都会带来重大风险,特别是如果它们不会对决策产生重大影响或不会严重损害受保护的合法利益。对决策影响最小或对合法利益风险最小的人工智能系统,例如那些执行任务的系统
狭窄的任务或增强人类活动被认为是低风险的。为了提高透明度,强调这些系统的文件记录和注册。一些高风险人工智能系统涉及多个行业,包括银行和保险(以及医疗)
设备、人力资源、教育等等)。

对高风险人工智能系统的强制性要求旨在确保可信性并降低风险,同时考虑其目的和使用环境。对于金融服务和金融科技公司,尤其是那些处理客户数据的公司来说,保持
请记住以下对高风险人工智能系统的要求:

– 针对高风险人工智能的持续、迭代风险管理,重点关注健康、安全和权利,需要更新、记录和利益相关者参与。

– 进行基本权利影响评估

– 严格的治理以避免歧视并确保遵守数据保护法

– 训练和测试数据集必须具有代表性、准确且无偏见,以防止对健康、安全和基本权利产生不利影响

– 确保人工监督和透明度

– 确保偏差检测和纠正

– 用于可追溯性、合规性验证、运营监控和上市后监督的易于理解的文档,包括清晰、更新的技术文档中的系统特征、算法、数据流程和风险管理,以及
在人工智能的整个生命周期中自动记录事件。

– 高风险人工智能系统应在其整个生命周期中始终如一地运行,并满足适当水平的准确性、稳健性和网络安全性

企业必须优先开发负责任的人工智能,以遵守最新的法规并防止因不合规而受到严厉处罚。以下是公司为确保合规性应开始的一些步骤:

  1. 建立人工智能治理 尽早确保利益相关者的参与和支持
  2. 教育和培训 您的团队遵守人工智能的道德原则。管理人工智能风险需要新的技能,从数据分析到安全/隐私、法律等等。
  3. 执行人工智能审核 组织(不仅仅是工程),还有法律、人力资源等,以全面了解人工智能在组织中的应用情况
  4. 检查持续合规性
  5. 确保您的 SaaS 提供商负责任地使用 AI
  6. 确保模型的透明度、理解性和可解释性 您的业​​务中使用的

虽然这是朝着正确方向迈出的一步,但问题在于细节,《人工智能法案》将对传统组织和以人工智能为中心的组织的未来产生重大影响。当我们正在经历一个人工智能影响力日益增强的时代
意义深远的是,符合道德标准和监管要求不仅是法律合规问题,也是战略要务。通过关注负责任的人工智能,企业不仅可以保护自己免受巨额罚款,还可以为自己定位
在快速发展的数字环境中作为值得信赖和具有前瞻性的实体。迈向负责任的人工智能之路是一条充满挑战但又不可或缺的道路,它有望重新定义技术、治理和社会福祉的未来。

时间戳记:

更多来自 芬泰达