不道德的 AI 窃窃私语者的代价高昂的后果(Padma Chukka)

不道德的 AI 窃窃私语者的代价高昂的后果(Padma Chukka)

                         不道德的 AI Whisperer (Padma Chukka) 柏拉图区块链数据智能的代价高昂的后果。垂直搜索。人工智能。

是的..我说的是人工智能应用程序——我们无数的人工智能应用程序和即将到来的人工智能应用程序正在悄悄地告诉人类该做什么…… 如何去做……但不是关于与 AI 聊天机器人互动的窃窃私语者。

根据 IDC 据预测,到 500 年,全球 AI 市场可能达到 2024 亿美元以上,比 50 年增长 2021% 以上。这表明我们已经从商业实验转向接受它是各种规模企业战略不可或缺的一部分。 它是将数据转化为洞察力以激发基于更好决策的行动的必要工具。 没有人在争论人工智能在降低业务风险和通过创新提高投资回报率方面的好处。 但是,一如既往,有一个......但是......无偏见的人工智能说起来容易做起来难。

这些 AI 模型对业务至关重要,需要以可见性和问责制可靠地运行。 否则,在这种情况下,失败会产生可怕的后果,影响任何公司的现金流,甚至可能导致法律问题。 避免这种情况的唯一方法是自动化和透明地回答一个问题“你能证明这个 AI 应用程序/工作负载是合乎道德的构建的吗?” 又名......你如何管理? 你能证明它一直在被治理吗?

这是公司喜欢的地方 IBM 投资于人工智能治理,以协调指导、管理和监控组织人工智能活动的整个过程。 主要工作是确保所有业务部门保持积极主动,并将治理框架融入举措中,以加强满足道德原则和法规的能力。 特别是,法律要求银行和金融服务等受监管行业提供证据以满足监管机构的要求。

由于数字化转型的巨大压力,人工智能在金融服务领域的影响力呈指数级增长。 如前所述,说起来容易做起来难,因为:

1. 自信地运行 AI 应用程序:

在某些情况下,模型的构建没有清晰度和分类; 不用说,监控会从所有事物中溜走,以跟踪端到端的生命周期。 虽然银行正在努力处理遗留应用程序,但自动化流程以创建透明度和可解释性变得更加困难,进而成为一个黑匣子。 没有人知道为什么/如何做出决定。 尽管由于质量和不可察觉的风险而带来巨大的投资回报率,但与遗留应用程序纠缠在一起的新应用程序永远不会出现。

这就引出了我们的第二点——管理声誉风险

2. 将声誉风险与整体风险一起管理

我问过 #chatGPT 和 #诗人 – 谁是 Padma Chukka。 #ChatGPT 即使我以多种方式更改问题,也拒绝回答。 尽管如此,巴德还是给了我一个详细的答案,包括我的 LinkedIn 个人资料……但数据来自各个网站,我的旧个人资料仍然作为演讲者简历的一部分存在。 从那时起,我还没有打开巴德。 很快,我就被关闭了,又名 - 声誉风险。 假设当我意识到数据可能不一致时,我可以关闭一个简单的聊天机器人。 在决定购买注入 AI 的应用程序以开展关键业务之前,我怎么能不确定呢? 声誉风险是企业有时会忘记的一个重要因素。 如果您量化声誉风险,就会发现如果一个人不积极主动,就会对业务产生巨大影响。

为了增加复杂性,第三个是……

3. 公司如何应对不断变化的 AI 法规?

为了避免声誉风险,一个成功且负责任的 AI 团队应该了解每一个地方和全球法规,像滴答视频一样随时通知。 不合规最终可能会使组织因拟议的欧盟 AI 法案等工作而被处以数百万美元的罚款。 它可能高达 30 万欧元或公司全球收入的 6% – OUCH。

好吧,并不是所有的事情一开始都必须是美好的……只要我们知道如何从可怕的情况转变为美好的情况。

毫不奇怪……它始终是人、流程和技术。 因此,首先,创建一个跨职能的管理机构来根据目标对计划进行教育、指导和监督。 然后对当前的 AI 技术和流程进行基准测试,了解差距,然后进行补救以适应未来的需要。 然后求助于一组符合合规性要求的自动化治理工作流。 最后,建立一个监控系统,在接近可接受的阈值时提醒所有者。从技术方面来说,一个架构良好、执行良好且连接良好的人工智能需要多个构建块。 并确保它具有部分或全部功能:

· 跨不同部署的数据完整性

· 使用遵循 AI 治理的开放、灵活的现有工具

· 确保提供带有隐私控制的自助访问——一种跟踪方式

· 设计时考虑自动化和 AI 治理

· 可以通过可定制的工作流程为多个利益相关者进行连接和定制

一旦我们将应用程序从可怕改造成玫瑰色……那么下一个问题就是您如何证明……

首先,依靠公司的 AI 原则——与它们一起构建,但你仍然需要“表明”你是合规的,尤其是在金融服务等受监管的环境中。 由于金融服务必须向 NIST 800-53 投诉,他们可以查看 NIST AI 风险管理框架 (AI RMF). NIST 建议在四个系列中进行控制——治理、地图、测量和管理。 使用它作为指导因素并对应用程序进行压力测试,以确定要补救和监控的差距。

不道德的 AI Whisperer (Padma Chukka) 柏拉图区块链数据智能的代价高昂的后果。垂直搜索。人工智能。

IBM 可以在您将模型投入生产之前对其进行验证,并且可以对其公平性、质量和漂移进行监控。 它还可以提供解释模型行为和预测的文档,以满足监管机构和审计师的要求。 这些解释可以提供可见性并减轻审计的痛苦,并提高透明度和确定可能风险的能力。

 自信地聆听 AI 的窃窃私语!

#金融服务 #responsibleai #ethicalai #NISTAIRMF

时间戳记:

更多来自 芬泰达