未修补的关键漏洞导致人工智能模型被接管

未修补的关键漏洞导致人工智能模型被接管

未修补的关键漏洞开放人工智能模型以接管柏拉图区块链数据智能。垂直搜索。人工智能。

研究人员已经发现人工智能模型使用的基础设施中存在近十几个关键漏洞(加上三个高严重性和两个中等严重性错误),这些漏洞可能会让企业在竞相利用人工智能时面临风险。 其中一些仍未修补。

受影响的平台用于托管、部署和共享大型语言模型 (LLM) 以及其他 ML 平台和 AI。 其中包括 Ray,用于机器学习模型的分布式训练; MLflow,一个机器学习生命周期平台; 模型数据库,一个机器学习管理平台; 和 H20版本3,一个基于Java的开源机器学习平台。

M机器学习安全公司 Protect AI 于 16 月 XNUMX 日披露了这一结果,作为其人工智能特定错误赏金计划 Huntr 的一部分。 它没有向软件维护人员和供应商通报了这些漏洞,给他们 45 天的时间来修补问题。

每个问题都被分配了一个 CVE 标识符,虽然许多问题已得到修复,但其他问题仍未修补,在这种情况下,Protect AI 建议采用以下解决方法: 它的咨询.

人工智能错误给组织带来高风险

根据 Protect AI 的说法,人工智能系统中的漏洞可能会让攻击者在未经授权的情况下访问人工智能模型,从而使他们能够为了自己的目标而选择这些模型。

但是,Protect AI 的首席架构师 Sean Morgan 表示,它们也可以为他们提供进入网络其他部分的门户。 例如,服务器泄露和低代码人工智能服务凭证被盗是初始访问的两种可能性。

“推理服务器可以拥有可访问的端点,以便用户能够[远程]使用机器学习模型,但进入某人网络的方法有很多,”他说。 “我们[通过错误赏金计划]瞄准的这些机器学习系统通常具有提升的权限,因此,如果有人能够进入您的网络,他们无法快速将权限升级到非常敏感的系统,这一点非常重要”。

例如,Ray 分布式学习平台的 API 中的一个关键本地文件包含问题(现已修补)允许攻击者读取系统上的任何文件。 H20 平台中的另一个问题(也已修复)允许通过导入 AI 模型来执行代码。

这种风险并不是理论上的:大公司已经开始积极寻找有用的人工智能模型并将其应用到自己的市场和运营中。 例如,银行已经使用机器学习和人工智能来进行抵押贷款处理和反洗钱。

在寻找时 这些人工智能系统中的漏洞 Protect AI 总裁兼联合创始人 Daryan Dehghanpisheh 表示,可能会导致基础设施受到损害,窃取知识产权也是一个大目标。

“工业间谍活动是一个重要组成部分,在人工智能和机器学习的战斗中,模型是非常有价值的知识产权资产,”他说。 “想想每天训练一个模型要花多少钱,当你谈论十亿个参数时,甚至更多,那么大量的投资,只是很容易被泄露或窃取的纯粹资本。”

HackerOne 高级解决方案架构师 Dane Sherrets 表示,针对支持人们与 ChatGPT 等人工智能系统进行自然语言交互的基础设施进行新的攻击将会产生更大的影响。 这是因为当网络犯罪分子能够触发此类漏洞时,人工智能系统的效率将使影响更大。

他说,这些攻击“可能导致系统吐出敏感或机密数据,或帮助恶意行为者访问系统后端”。 “训练数据中毒等人工智能漏洞也可能产生重大连锁反应,导致错误或恶意输出的广泛传播。”

人工智能基础设施的安全性:经常被忽视

自一年前推出 ChatGPT 以来,基于人工智能(尤其是生成式人工智能 (GenAI))的技术和服务已经起飞。 随之而来的是, 各种对抗性攻击 已经开发出可以针对人工智能和机器学习系统及其操作的技术。 例如,15 月 XNUMX 日,人工智能安全公司 Adversa AI
披露了一些针对基于 GPT 的系统的攻击 包括提示泄露和枚举系统有权访问的API。

然而,ProtectAI 的错误披露强调了一个事实,即支持机器学习过程和人工智能操作的工具和基础设施也可能成为目标。 通常,企业已经采用基于人工智能的工具和工作流程 无需经常咨询信息安全小组.

“与任何高科技炒作周期一样,人们将部署系统,推出应用程序,并创造新的体验来满足业务和市场的需求,并且通常会忽视安全性并创建这些Dehghanpisheh 说,“他们会认为现有的安全功能可以保证他们的安全。” “但是我们[网络安全专业人员]为传统数据中心所做的事情并不一定能保证您在云中的安全,反之亦然。”

Protect AI 使用其名为 Huntr 的漏洞赏金平台向数千名研究人员征求针对不同机器学习平台的漏洞提交,但到目前为止,该领域的漏洞搜寻仍处于起步阶段。 不过,这种情况可能即将改变。

例如,趋势科技的零日计划尚未发现对查找人工智能/机器学习工具中的错误的巨大需求,但该组织已经看到行业希望研究人员发现的漏洞类型发生了定期变化,并且人工智能的焦点可能会到来趋势科技零日计划威胁意识主管达斯汀·蔡尔兹 (Dustin Childs) 表示,很快就会出现这种情况。

“我们在人工智能中看到的情况与其他行业的发展过程中看到的情况相同,”他说。 “起初,安全性被降低了优先级,转而支持添加功能。 现在它已经达到了一定的接受程度,人们开始询问其安全隐患。”

时间戳记:

更多来自 暗读