使用 AWS 实现生成 AI 的安全方法 |亚马逊网络服务

使用 AWS 实现生成 AI 的安全方法 |亚马逊网络服务

使用 AWS 实现生成 AI 的安全方法 |亚马逊网络服务柏拉图区块链数据智能。垂直搜索。人工智能。

生成式人工智能 (AI) 正在改变全球各行业的客户体验。客户正在使用大型语言模型 (LLM) 和其他基础模型 (FM) 构建生成式 AI 应用程序,从而增强客户体验、转变运营方式、提高员工生产力并创造新的收入渠道。

FM 以及围绕它们构建的应用程序对我们的客户来说是极其有价值的投资。它们通常与高度敏感的业务数据(例如个人数据、合规性数据、运营数据和财务信息)一起使用,以优化模型的输出。当客户探索生成式人工智能的优势时,我们听到的最大担忧是如何保护他们高度敏感的数据和投资。因为他们的数据和模型权重非常有价值,所以客户要求它们保持受保护、安全和私密,无论是来自他们自己的管理员帐户、他们的客户、在他们自己的环境中运行的软件中的漏洞,甚至是他们的云服务提供商使用权。

在 AWS,我们的首要任务是保护客户工作负载的安全性和机密性。我们考虑生成式人工智能堆栈三层的安全性:

  • 底层 – 提供建立和培训法学硕士和其他法学硕士的工具
  • 中间层 – 提供对构建和扩展生成式人工智能应用程序所需的所有模型以及工具的访问
  • 顶层 – 包括使用法学硕士和其他 FM 的应用程序,通过编写和调试代码、生成内容、获取见解和采取行动来减轻工作压力

每一层对于使生成式人工智能普及和变革都很重要。

随着 AWS Nitro系统,我们代表客户提供了史无前例的创新。 Nitro 系统是 AWS 无与伦比的计算骨干,其核心是安全性和性能。其专用硬件和相关固件旨在强制执行限制,以便任何人(包括 AWS 中的任何人)都可以访问您的工作负载或在您的设备上运行的数据。 亚马逊弹性计算云 (Amazon EC2) 实例。自 2 年以来,客户在所有基于 Nitro 的 EC2017 实例上都受益于这种保密性以及与 AWS 运营商的隔离。

根据设计,任何 Amazon 员工都没有机制可以访问客户用来运行工作负载的 Nitro EC2 实例,或者访问客户发送到机器学习 (ML) 加速器或 GPU 的数据。此保护适用于所有基于 Nitro 的实例,包括具有 ML 加速器的实例,例如 AWS 推理AWS 培训,以及具有 P4、P5、G5 和 G6 等 GPU 的实例。

硝基系统使 弹性织物适配器(EFA),它使用 AWS 构建的 AWS Scalable Reliable Datagram (SRD) 通信协议进行云级弹性和大规模分布式训练,从而实现唯一始终加密的远程直接内存访问 (RDMA) 功能的网络。通过 EFA 进行的所有通信均经过加密 专有网络加密 不会造成任何性能损失。

Nitro 系统的设计 经 NCC 集团验证,一家独立的网络安全公司。 AWS 为客户工作负载提供高水平的保护,我们相信这是客户期望从其云提供商处获得的安全性和机密性级别。这种级别的保护非常重要,因此我们已将其添加到我们的产品中 AWS 服务条款 为我们所有的客户提供额外的保证。

使用 AWS 行业领先的安全功能创新安全的生成式 AI 工作负载

从第一天起,AWS AI 基础设施和服务就具有内置的安全和隐私功能,让您能够控制数据。随着客户在其组织中快速实施生成式 AI,您需要知道您的数据在整个 AI 生命周期(包括数据准备、培训和推理)中得到安全处理。模型权重(模型在训练过程中学习的参数,对其预测能力至关重要)的安全性对于保护数据和维护模型完整性至关重要。

这就是为什么 AWS 必须代表客户继续创新,以提高生成式 AI 堆栈每一层的安全性标准。为此,我们认为您必须在生成式 AI 堆栈的每一层内置安全性和机密性。您需要能够保护基础设施的安全,以培训 LLM 和其他 FM,使用运行 LLM 和其他 FM 的工具安全地进行构建,并运行使用具有您可以信任的内置安全性和隐私性的 FM 的应用程序。

在 AWS,保护 AI 基础设施是指任何未经授权的人员(无论是基础设施运营商还是客户)对敏感 AI 数据(例如 AI 模型权重和使用这些模型处理的数据)的零访问。它由三个关键原则组成:

  1. AI数据与基础设施运营商完全隔离 – 基础设施运营商必须无法访问客户内容和人工智能数据,例如人工智能模型权重和模型处理的数据。
  2. 客户能够将人工智能数据与自己隔离 – 基础设施必须提供一种机制,允许将模型权重和数据加载到硬件中,同时保持与客户自己的用户和软件的隔离和不可访问。
  3. 受保护的基础设施通信 – 机器学习加速器基础设施中设备之间的通信必须受到保护。设备之间的所有外部可访问链接都必须加密。

Nitro 系统通过将您的 AI 数据与 AWS 运营商隔离来实现安全 AI 基础设施的首要原则。第二个原则为您提供了一种删除您自己的用户和软件对 AI 数据的管理访问权限的方法。 AWS 不仅为您提供了实现这一目标的方法,而且我们还通过投资构建一个集成解决方案,使之变得简单实用。 AWS Nitro EnclavesAWS密钥管理服务 (AWS KMS)。借助 Nitro Enclaves 和 AWS KMS,您可以使用您拥有和控制的密钥加密敏感的 AI 数据,将该数据存储在您选择的位置,并将加密数据安全地传输到隔离的计算环境以进行推理。在整个过程中,敏感的 AI 数据都会被加密,并与您自己的用户和 EC2 实例上的软件隔离,AWS 操作员无法访问这些数据。从此流程中受益的用例包括运行 法学硕士推理 在飞地。直到今天,Nitro Enclaves 仅在 CPU 中运行,限制了更大的生成 AI 模型和更复杂处理的潜力。

我们宣布计划扩展 Nitro 端到端加密流程,以包括与 ML 加速器和 GPU 的一流集成,从而实现第三条原则。您将能够解密敏感的 AI 数据并将其加载到 ML 加速器中进行处理,同时提供与您自己的操作员的隔离,并验证用于处理 AI 数据的应用程序的真实性。通过 Nitro 系统,您可以通过 AWS KMS 以加密方式验证您的应用程序,并仅在必要的检查通过时才解密数据。这一增强功能使 AWS 能够在数据流经生成型 AI 工作负载时为您的数据提供端到端加密。

我们计划在即将推出的 AWS 设计中提供这种端到端加密流程 培训2 以及基于 NVIDIA 即将推出的 Blackwell 架构的 GPU 实例,它们都提供设备之间的安全通信,这是安全 AI 基础设施的第三个原则。 AWS 和 NVIDIA 正在密切合作,将联合解决方案推向市场,其中包括 NVIDIA 的全新 NVIDIA Blackwell GPU 21 平台,该平台将 NVIDIA 的 GB200 NVL72 解决方案与 Nitro 系统和 EFA 技术相结合,为安全构建和部署下一代解决方案提供业界领先的解决方案。一代生成式人工智能应用程序。

推进生成式人工智能安全的未来

如今,数以万计的客户正在使用 AWS 来试验变革性的生成式 AI 应用程序并将其投入生产。生成式 AI 工作负载包含非常有价值和敏感的数据,需要您自己的运营商和云服务提供商提供一定程度的保护。自 2 年我们推出创新 Nitro 系统以来,使用基于 AWS Nitro 的 EC2017 实例的客户已获得 AWS 运营商的这种级别的保护和隔离。

在 AWS,我们不断创新,投资于构建高性能且可访问的功能,使我们的客户能够切实可行地跨生成式 AI 堆栈的三层保护其生成式 AI 工作负载,以便您可以专注于自己的工作最佳:构建生成式人工智能并将其应用扩展到更多领域。了解更多 相关信息.


关于作者

使用 AWS 实现生成 AI 的安全方法 |亚马逊网络服务柏拉图区块链数据智能。垂直搜索。人工智能。Anthony Liguori 是 AWS 副总裁兼 EC2 杰出工程师

使用 AWS 实现生成 AI 的安全方法 |亚马逊网络服务柏拉图区块链数据智能。垂直搜索。人工智能。Colm MacCárthaigh 是 AWS 副总裁兼 EC2 杰出工程师

时间戳记:

更多来自 AWS机器学习