使用 Amazon SageMaker Edge Manager 和 AWS IoT Greengrass PlatoBlockchain Data Intelligence 在边缘进行 MLOps。 垂直搜索。 哎。

使用 Amazon SageMaker Edge Manager 和 AWS IoT Greengrass 在边缘进行 MLOps

物联网 (IoT) 使制造、汽车和能源等多个行业的客户能够监控和控制现实环境。 通过部署各种边缘 IoT 设备(例如摄像头、恒温器和传感器),您可以收集数据,将其发送到云端,并构建机器学习 (ML) 模型来预测异常、故障等。 但是,如果用例需要实时预测,您需要使用边缘机器学习 (ML@Edge) 功能来丰富您的 IoT 解决方案。 机器学习@边缘 是将 ML 模型的生命周期与应用程序生命周期分离的概念,并允许您运行端到端的 ML 管道,包括数据准备、模型构建、模型编译和优化、模型部署(到一组边缘设备),模型执行,模型监控和管理。 您只需部署一次应用程序并根据需要多次运行 ML 管道。

可以想象,实现 ML@Edge 概念提出的所有步骤并非易事。 为了实现完整的 ML@Edge 解决方案,开发人员需要解决许多问题,例如:

  • 如何在边缘设备群(数百、数千或数百万)上运行 ML 模型?
  • 在边缘部署和运行模型时如何保护模型?
  • 如果需要,我如何监控模型的性能并重新训练它?

在这篇文章中,您将学习如何回答所有这些问题并构建一个端到端的解决方案来自动化您的 ML@Edge 管道。 你会看到如何使用 亚马逊SageMaker Edge Manager, 亚马逊SageMaker StudioAWS 物联网 Greengrass v2 创建一个 MLOps(ML 操作)环境,该环境可以自动将 ML 模型构建和部署到大量边缘设备的过程。

在接下来的部分中,我们将介绍一个参考架构,其中详细介绍了为专注于边缘工作负载的 MLOps 构建完整解决方案所需的所有组件和工作流。 然后我们深入研究该解决方案自动运行以构建和准备新模型的步骤。 我们还将向您展示如何准备边缘设备以开始部署、运行和监控 ML 模型,并演示如何监控和维护部署到您的设备队列的 ML 模型。

解决方案概述

强大的 ML 模型的生产需要多个角色(例如数据科学家、ML 工程师、数据工程师和业务利益相关者)在遵循特定操作 (MLOps) 的半自动化基础架构下进行协作。 此外,环境的模块化很重要,以便为所有这些不同的角色提供灵活性和敏捷性,以开发或改进(独立于工作流程)他们负责的组件。 这种基础设施的一个示例由多个 AWS 账户组成,这些账户支持在云中和边缘设备上实现 ML 模型的这种协作和生产。 在以下参考架构中,我们展示了我们如何组织组成这个端到端 MLOps 平台的多个帐户和服务,以构建 ML 模型并在边缘部署它们。

此解决方案由以下帐户组成:

  • 数据湖账户 – 数据工程师从多个数据源摄取、存储和准备数据,包括本地数据库和物联网设备。
  • 工具账户 – IT 操作员管理和检查 CI/CD 管道,以便在远程边缘设备的预生产和生产帐户中自动持续交付和部署 ML 模型包。 CI/CD 管道的运行通过使用 亚马逊EventBridge,它监视 ML 模型和目标的更改状态事件 AWS 代码管道.
  • 实验和开发帐户 – 数据科学家可以使用多种建模技术和算法进行研究和实验,以解决基于 ML 的业务问题,创建概念验证解决方案。 ML 工程师和数据科学家合作扩展概念验证,使用以下方法创建自动化工作流 Amazon SageMaker管道 准备数据并构建、训练和打包 ML 模型。 管道的部署是通过 CI/CD 管道驱动的,而模型的版本控制是使用 Amazon SageMaker 模型注册表. 数据科学家评估多个模型版本的指标,并要求通过触发 CI/CD 管道将最佳模型推广到生产中。
  • 预生产账户 – 在将模型推广到生产环境之前,需要对模型进行测试,以确保在仿真环境中的鲁棒性。 因此,预生产环境是生产环境的模拟器,其中自动部署和测试 SageMaker 模型端点。 测试方法可能包括集成测试、压力测试或推理结果的特定于 ML 的测试。 在这种情况下,生产环境不是 SageMaker 模型端点,而是边缘设备。 要在预生产中模拟边缘设备,可以使用两种方法:使用 亚马逊弹性计算云 (Amazon EC2) 实例具有相同的硬件特性,或使用由实际设备组成的实验室测试平台。 借助此基础架构,CI/CD 管道将模型部署到相应的模拟器并自动进行多项测试。 测试成功运行后,CI/CD 管道需要手动批准(例如,从 IoT 利益相关者那里将模型推广到生产环境)。
  • 生产账户 – 如果在 AWS 云上托管模型,CI/CD 管道会在生产账户上部署 SageMaker 模型终端节点。 在这种情况下,生产环境由多组边缘设备组成。 因此,CI/CD 管道使用 Edge Manager 将模型部署到相应的设备队列。
  • 边缘设备 – 远程边缘设备是可以使用 Edge Manager 运行 ML 模型的硬件设备。 它允许这些设备上的应用程序管理模型,对模型进行推理,并将数据安全地捕获到 亚马逊简单存储服务 (亚马逊S3)。

SageMaker项目 帮助您在每个帐户中自动配置资源的过程。 我们不会深入研究此功能,但要了解有关如何构建跨账户部署 ML 模型的 SageMaker 项目模板的更多信息,请查看 使用Amazon SageMaker Pipelines进行多账户模型部署.

预生产帐户:数字孪生

在训练过程之后,需要对生成的模型进行评估。 在预生产帐户中,您有一个模拟的 Edge 设备。 它代表了 数字双胞胎 机器学习模型在生产环境中运行的边缘设备。 此环境具有执行经典测试(例如单元、集成和冒烟)和作为开发团队的游乐场的双重目的。 该设备使用 EC2 实例进行模拟,其中部署了管理 ML 模型所需的所有组件。

涉及的服务如下:

  • AWS IoT核心 - 我们用 AWS IoT核心 创建 AWS IoT 事物对象,创建设备队列,注册设备队列以便它可以与云交互,创建 X.509 证书以向 AWS IoT Core 验证边缘设备,将角色别名与生成的 AWS IoT Core 相关联队列已创建,获取凭证提供程序的 AWS 账户特定终端节点,获取官方 Amazon 根 CA 文件,并将 Amazon CA 文件上传到 Amazon S3。
  • 亚马逊 Sagemaker Neo – Sagemaker 自动优化机器学习模型以进行推理以更快地运行而不会损失准确性。 它支持已经使用 DarkNet、Keras、MXNet、PyTorch、TensorFlow、TensorFlow-Lite、ONNX 或 XGBoost 构建的机器学习模型,并在 Amazon SageMaker 或其他任何地方进行了训练。 然后选择目标硬件平台,它可以是 SageMaker 托管实例,也可以是基于 Ambarella、Apple、ARM、Intel、MediaTek、Nvidia、NXP、Qualcomm、RockChip、Texas Instruments 或 Xilinx 处理器的边缘设备。
  • 边缘管理器 – 我们使用 Edge Manager 来注册和管理 Sagemaker 车队中的边缘设备。 队列是可用于收集和分析数据的逻辑分组设备的集合。 此外,Edge Manager 打包器将优化后的模型打包并创建一个可直接部署的 AWS IoT Greengrass V2 组件。 您可以使用 Edge Manager 在一组智能相机、智能扬声器、机器人和其他 SageMaker 设备组上操作 ML 模型。
  • AWS 物联网 Greengrass V2AWS IoT Greengrass 允许您使用 EC2 实例将组件部署到模拟设备中。 通过在 EC2 实例中使用 AWS IoT Greengrass V2 代理,我们可以简化 Edge Manager 代理和模型对设备的访问、管理和部署。 如果没有 AWS IoT Greengrass V2,设置设备和队列以使用 Edge Manager 需要您从 S3 发布存储桶手动复制代理。 通过 AWS IoT Greengrass V2 和 Edge Manager 集成,可以使用 AWS IoT Greengrass V2 组件。 组件是预构建的软件模块,可以通过 AWS IoT Greengrass 将边缘设备连接到 AWS 服务或第三方服务。
  • 边缘管理器代理 – Edge Manager 代理通过 EC2 实例中的 AWS IoT Greengrass V2 部署。 代理可以一次加载多个模型,并使用边缘设备上加载的模型进行推理。 代理可以加载的模型数量取决于设备上的可用内存。
  • Amazon S3 – 我们使用 S3 存储桶来存储来自 Edge Manager 代理的推理捕获数据。

我们可以将预生产帐户定义为数字孪生,用于在将 ML 模型移动到真正的边缘设备之前对其进行测试。 这提供了以下好处:

  • 敏捷性和灵活性 – 数据科学家和 ML 工程师需要快速验证 ML 模型和相关脚本(预处理和推理脚本)是否可以在设备边缘运行。 但是,大型企业的物联网和数据科学部门可能是不同的实体。 通过在云中相同地复制技术堆栈,数据科学家和机器学习工程师可以在部署之前迭代和整合工件。
  • 加快风险评估和生产时间 – 在边缘设备上部署是该过程的最后阶段。 在隔离且独立的环境中验证所有内容后,确保其符合边缘在质量、性能和集成方面所需的规范。 这有助于避免物联网部门的其他人进一步参与修复和迭代工件版本。
  • 改进团队协作并提高质量和绩效 – 开发团队可以通过分析边缘硬件指标和测量与第三方工具的交互水平(例如 I/O 速率)来立即评估 ML 模型的影响。 然后,IoT 团队只负责部署到生产环境,并且可以确信工件对于生产环境是准确的。
  • 用于测试的综合游乐场 – 给定 ML 模型的目标,传统工作流中的预生产环境应由云环境外的边缘设备表示。 这引入了另一个级别的复杂性。 需要集成来收集指标和反馈。 相反,通过使用数字孪生模拟环境,可以减少交互并缩短上市时间。

生产帐户和边缘环境

测试完成并达到工件稳定性后,您可以通过管道进行生产部署。 在操作员批准工件后,工件部署以编程方式进行。 但是,访问 AWS管理控制台 以只读模式授予操作员,以便能够监控与车队相关的元数据,因此可以深入了解已部署的 ML 模型的版本以及与生命周期相关的其他指标。

边缘设备队列属于 AWS 生产账户。 此帐户具有特定的安全和网络配置,以允许云和边缘设备之间的通信。 部署在生产账户中的主要 AWS 服务是 Edge Manager,它负责管理所有设备队列、收集数据和操作 ML 模型,以及 AWS IoT Core,它管理 IoT 事物对象、证书、角色别名和端点。

同时,我们需要为边缘设备配置服务和组件来管理 ML 模型。 主要成分如下:

  • AWS 物联网 Greengrass V2
  • 边缘管理器代理
  • AWS 物联网证书
  • Application.py,负责编排推理过程(从边缘数据源检索信息并使用边缘管理器代理和加载的 ML 模型执行推理)
  • 连接到 Amazon S3 或数据湖帐户以存储推断数据

自动化机器学习流水线

现在您对参考架构的组织和组件有了更多了解,我们可以更深入地了解我们用于在开发帐户中构建、训练和评估 ML 模型的 ML 管道。

管道(使用 Amazon SageMaker 模型构建管道) 是由 JSON 管道定义定义的一系列相互关联的步骤。 此管道定义使用有向无环图 (DAG) 对管道进行编码。 此 DAG 提供有关管道每个步骤的要求和关系的信息。 管道的 DAG 的结构由步骤之间的数据依赖关系决定。 当一个步骤的输出属性作为输入传递给另一个步骤时,就会创建这些数据依赖关系。

为了使数据科学团队能够轻松地自动创建新版本的 ML 模型,引入验证步骤和自动化数据以持续提供和改进 ML 模型以及用于启用管道触发的模型监控策略非常重要。 下图显示了一个示例管道。

使用 Amazon SageMaker Edge Manager 和 AWS IoT Greengrass PlatoBlockchain Data Intelligence 在边缘进行 MLOps。 垂直搜索。 哎。

为了实现自动化和 MLOps 功能,创建模块化组件以创建可在不同步骤和 ML 用例之间共享的可重用代码工件非常重要。 这使您能够通过自动化过渡将实施从试验阶段快速转移到生产阶段。

定义 ML 管道以实现 ML 模型的持续训练和版本控制的步骤如下:

  • 前处理 – 用于训练 ML 算法的数据清理、特征工程和数据集创建过程
  • 产品培训 – 训练开发的 ML 算法以生成新版本的 ML 模型工件的过程
  • 评价 – 评估生成的 ML 模型的过程,用于提取与在训练阶段未见的新数据上的模型行为相关的关键指标
  • 注册 – 通过将提取的指标与生成的工件链接起来,对新训练的 ML 模型工件进行版本控制的过程

您可以在以下内容中查看有关如何构建 SageMaker 管道的更多详细信息 笔记本.

使用 EventBridge 触发 CI/CD 管道

完成模型构建后,您可以开始部署过程。 上一节中定义的 SageMaker 管道的最后一步在特定 SageMaker 模型注册表组中注册模型的新版本。 使用模型注册表状态管理新版本 ML 模型的部署。 通过手动批准或拒绝 ML 模型版本,此步骤会引发由 EventBridge 捕获的事件。 然后,此事件可以启动一个新管道(这次是 CI/CD),以创建新版本的 AWS IoT Greengrass 组件,然后将其部署到预生产和生产账户。 以下屏幕截图显示了我们定义的 EventBridge 规则。

使用 Amazon SageMaker Edge Manager 和 AWS IoT Greengrass PlatoBlockchain Data Intelligence 在边缘进行 MLOps。 垂直搜索。 哎。

此规则通过在状态中查找模型包的更新来监控 SageMaker 模型包组 Approved or Rejected.

然后将 EventBridge 规则配置为以 CodePipeline 为目标,这将启动创建新 AWS IoT Greengrass 组件的工作流程,方法是使用 亚马逊SageMaker Neo 和边缘管理器。

针对目标架构优化 ML 模型

Neo 允许您优化 ML 模型以在边缘设备(和云中)上执行推理。 它会根据目标架构自动优化 ML 模型以获得更好的性能,并将模型与原始框架解耦,允许您在轻量级运行时运行它。

请参阅以下内容 笔记本 有关如何使用 Neo 编译 PyTorch Resnet18 模型的示例。

通过包含 AWS IoT Greengrass 组件构建部署包

Edge Manager 允许您管理、保护、部署和监控模型到一组边缘设备。 在下面的 笔记本,您可以查看有关如何构建极简边缘设备队列的更多详细信息,并使用此功能进行一些实验。

配置队列并编译模型后,您需要运行 Edge Manager 打包作业,准备将模型部署到队列。 您可以使用 Boto3 SDK 启动打包作业。 对于我们的参数,我们使用优化模型和模型元数据。 通过将以下参数添加到 OutputConfig,该作业还使用模型准备 AWS IoT Greengrass V2 组件:

  • PresetDeploymentType
  • PresetDeploymentConfig

请参见以下代码:

import boto3
import time

SageMaker_client = boto3.client('SageMaker')

SageMaker_client.create_edge_packaging_job(
    EdgePackagingJobName="mlops-edge-packaging-{}".format(int(time.time()*1000)),
    CompilationJobName=compilation_job_name,
    ModelName="PytorchMLOpsEdgeModel",
    ModelVersion="1.0.0",
    RoleArn=role,
    OutputConfig={
        'S3OutputLocation': 's3://{}/model/'.format(bucket_name),
        "PresetDeploymentType": "GreengrassV2Component",
        "PresetDeploymentConfig": json.dumps(
            {"ComponentName": component_name, "ComponentVersion": component_version}
        ),
    }
)

在边缘大规模部署 ML 模型

现在是时候将模型部署到您的边缘设备群了。 首先,我们需要确保我们有必要的 AWS身份和访问管理 (我是) 权限 配置我们的物联网设备并能够为其部署组件。 我们需要两个基本元素来开始将设备加入我们的物联网平台:

  • IAM 政策 – 该策略允许自动配置此类设备,附加到执行配置的用户或角色。 它应该具有 IoT 写入权限以创建 IoT 事物和组,以及将必要的策略附加到设备。 有关详细信息,请参阅 安装程序预置资源的最低 IAM 策略.
  • IAM角色 – 这个角色与我们创建的物联网事物和组相关联。 您可以在预置时使用基本权限创建此角色,但它将缺少访问 Amazon S3 或 AWS密钥管理服务 (AWS KMS),以后可能需要。 您可以预先创建此角色并在我们配置设备时重复使用它。 有关详细信息,请参阅 授权核心设备与 AWS 交互.

AWS IoT Greengrass 安装和配置

在我们制定好 IAM 政策和角色后,我们就可以 安装具有自动资源预置功能的 AWS IoT Greengrass Core 软件. 尽管可以按照手动步骤预置 IoT 资源,但在安装 AWS IoT Greengrass v2 核心期间可以方便地自动预置这些资源。 这是将新设备快速加入平台的首选选项。 除了 default-jdk,需要安装其他包,比如 curl, unzippython3.

当我们配置我们的设备时,IoT 事物名称必须与 Edge Manager 中定义的边缘设备完全相同,否则数据将不会被捕获到目标 S3 存储桶。

如果 AWS IoT Greengrass 角色和别名不存在,安装程序可以在安装期间创建它们。 但是,它们将以最少的权限创建,并且需要手动添加更多策略才能与其他服务(例如 Amazon S3)进行交互。 我们建议您提前创建这些 IAM 资源,如前所述,然后在您将新设备加入账户时重复使用它们。

模型和推理组件封装

在我们的代码开发完成后,我们可以将代码(用于推理)和我们的 ML 模型作为组件部署到我们的设备中。

在 SageMaker 中训练 ML 模型后,您可以使用 Neo 使用 Sagemaker 编译作业优化模型。 然后可以使用 Edge Manager 打包器将生成的编译模型工件打包到 GreenGrass V2 组件中。 然后,它可以注册为自定义组件在 我的组件 AWS IoT Greengrass 控制台上的部分。 该组件已经包含必要的生命周期命令,用于在我们的设备中下载和解压缩模型工件,以便推理代码可以加载它以发送通过它捕获的图像。

关于推理代码,我们必须使用控制台或 AWS命令行界面 (AWS CLI)。 首先,我们将源推理代码和必要的依赖项打包到 Amazon S3。 上传代码后,我们可以使用 .yaml 或 JSON 中的配方创建组件,如下例所示:

---
RecipeFormatVersion: 2020-01-25
ComponentName: dummymodel.inference
ComponentVersion: 0.0.1
ComponentDescription: Deploys inference code to a client
ComponentPublisher: Amazon Web Services, Inc.
ComponentDependencies:
  aws.GreenGrass.TokenExchangeService:
    VersionRequirement: '>=0.0.0'
    DependencyType: HARD
  dummymodel:
    VersionRequirement: '>=0.0.0'
    DependencyType: HARD
Manifests:
  - Platform:
      os: linux
      architecture: "*"
    Lifecycle:
      install: |-
        apt-get install python3-pip
        pip3 install numpy
        pip3 install sysv_ipc
        pip3 install boto3
        pip3 install grpcio-tools
        pip3 install grpcio
        pip3 install protobuf
        pip3 install SageMaker
        tar xf {artifacts:path}/sourcedir.tar.gz
      run:
        script: |-
          sleep 5 && sudo python3 {work:path}/inference.py 
    Artifacts:
      - URI: s3://BUCKET-NAME/path/to/inference/sourcedir.tar.gz
        Permission:
          Execute: OWNER

这个示例配方显示了我们组件的名称和描述,以及我们运行脚本命令之前的必要先决条件。 该配方在设备的工作文件夹环境中解压缩工件,我们使用该路径来运行我们的推理代码。 创建此类配方的 AWS CLI 命令是:

aws greengrassv2 create-component-version --region $REGION 
                                          --inline-recipe fileb://path/to/recipe.yaml

您现在可以看到在 AWS IoT Greengrass 控制台上创建的这个组件。

请注意组件版本很重要,它必须在配方文件中指定。 重复相同的版本号将返回错误。

将模型和推理代码设置为组件后,我们就可以部署它们了。

使用 AWS IoT Greengrass 部署应用程序和模型

在前面的部分中,您学习了如何打包推理代码和 ML 模型。 现在我们可以创建一个包含多个组件的部署,其中包括我们的推理代码与边缘设备中的模型交互所需的组件和配置。

Edge Manager 代理是应安装在每个边缘设备上的组件,以启用所有 Edge Manager 功能。 在 SageMaker 控制台上,我们定义了一个设备队列,它有一个关联的 S3 存储桶。 与车队关联的所有边缘设备都将捕获其数据并将其报告到此 S3 路径。 该代理可以作为一个组件部署在 AWS IoT Greengrass v2 中,这比在独立模式下部署代理更容易安装和配置。 在将代理部署为组件时,我们需要指定其配置参数,即设备队列和 S3 路径。

我们使用我们刚刚创建的模型和代码的自定义组件创建部署配置。 此设置在一个 JSON 文件中定义,该文件列出了部署名称和目标,以及部署中的组件。 我们可以添加和更新每个组件的配置参数,例如在 Edge Manager 代理中,我们指定队列名称和存储桶。

{
    "targetArn": "targetArn",
    "deploymentName": "dummy-deployment",
    "components": {
        "aws.GreenGrass.Nucleus": {
            "version": "2.5.3",
        },
        "aws.GreenGrass.Cli": {
            "version": "2.5.3"
        },
        "aws.GreenGrass.SageMakerEdgeManager": {
            "version": 1.1.0,
            "configurationUpdate": {
                "merge": {
                "DeviceFleetName": "FLEET-NAME",
                "BucketName": "BUCKET-NAME-URI"
                }
            }
        },
        "dummymodel.inference": {
            "version": "0.0.1"
        },
        "dummymodel": {
            "version": "0.0.1"
        }
    }
}

值得注意的是,我们不仅添加了模型、推理组件和代理,还添加了 AWS IoT Greengrass CLI 和核心组件。 前者可以帮助在设备上本地调试某些部署。 后者被添加到部署中,以便在需要时从设备本身配置必要的网络访问(例如,代理设置),以及在您想要执行 AWS IoT Greengrass v2 核心的 OTA 升级的情况下。 未部署核心,因为它已安装在设备中,并且只会应用配置更新(除非已进行升级)。 要部署,我们只需要在前面的配置上运行以下命令。 请记住设置将应用部署的目标 ARN(IoT 事物或 IoT 组)。 我们也可以从控制台部署这些组件。

aws greengrassv2 create-deployment --region $REGION 
                                   --cli-input-json file://path/to/deployment.json

监控和管理部署到边缘的 ML 模型

现在您的应用程序正在边缘设备上运行,是时候了解如何监控车队以改进治理、维护和可见性了。 在 SageMaker 控制台上,选择 边缘管理器 在导航窗格中,然后选择 边缘设备舰队. 从这里,选择您的舰队。

使用 Amazon SageMaker Edge Manager 和 AWS IoT Greengrass PlatoBlockchain Data Intelligence 在边缘进行 MLOps。 垂直搜索。 哎。

在车队的详细信息页面上,您可以看到在车队的每台设备上运行的模型的一些元数据。 船队报告每 24 小时生成一次。

使用 Amazon SageMaker Edge Manager 和 AWS IoT Greengrass PlatoBlockchain Data Intelligence 在边缘进行 MLOps。 垂直搜索。 哎。

每个设备通过边缘代理捕获的数据以 json 行格式 (JSONL) 发送到 S3 存储桶。 从应用程序的角度管理发送捕获数据的过程。 因此,您可以自由决定是否发送此数据、发送方式和频率。

使用 Amazon SageMaker Edge Manager 和 AWS IoT Greengrass PlatoBlockchain Data Intelligence 在边缘进行 MLOps。 垂直搜索。 哎。

您可以将这些数据用于许多事情,例如监控数据漂移和模型质量、构建新数据集、丰富数据湖等等。 如何利用这些数据的一个简单示例是,当您发现用户与您的应用程序交互方式中的一些数据漂移时,您需要训练一个新模型。 然后,您使用捕获的数据构建一个新数据集并将其复制回开发帐户。 这可以自动启动新的环境运行,构建新模型并将其重新部署到整个车队,以保持已部署解决方案的性能。

结论

在这篇文章中,您了解了如何使用 AWS 服务构建一个结合了 MLOps 和 ML@Edge 的完整解决方案。 构建这样的解决方案并非易事,但我们希望本文中介绍的参考架构能够启发并帮助您构建一个可靠的架构,以应对您自己的业务挑战。 您还可以仅使用此架构中与现有 MLOps 环境集成的部分或模块。 通过一次制作一个模块的原型并使用适当的 AWS 服务来应对这一挑战的每一个部分,您可以了解如何构建强大的 MLOps 环境并进一步简化最终架构。

作为下一步,我们鼓励您尝试使用 Sagemaker Edge Manager 在边缘生命周期管理您的机器学习。 有关 Edge Manager 如何工作的更多信息,请参阅 使用 SageMaker Edge Manager 在边缘部署模型 .


关于作者

使用 Amazon SageMaker Edge Manager 和 AWS IoT Greengrass PlatoBlockchain Data Intelligence 在边缘进行 MLOps。 垂直搜索。 哎。布鲁诺·皮斯通 是位于米兰的 AWS 的 AI/ML 专家解决方案架构师。 他与任何规模的客户合作,帮助他们深入了解他们的技术需求并设计人工智能和机器学习解决方案,以充分利用 AWS 云和亚马逊机器学习堆栈。 他的专业领域是端到端机器学习、机器学习工业化和 MLOps。 他喜欢与朋友共度时光,探索新的地方,以及前往新的目的地。

使用 Amazon SageMaker Edge Manager 和 AWS IoT Greengrass PlatoBlockchain Data Intelligence 在边缘进行 MLOps。 垂直搜索。 哎。马泰奥·卡拉布雷斯 是 AWS 专业服务团队的 AI/ML 客户交付架构师。 他与 EMEA 大型企业合作开展 AI/ML 项目,帮助他们提出、设计、交付、扩展和优化 ML 生产工作负载。 他的主要专长是机器学习操作 (MLOps) 和 Edge 机器学习。 他的目标是通过提供 AWS 最佳实践来缩短他们评估和加速业务成果的时间。 在业余时间,他喜欢远足和旅行。

使用 Amazon SageMaker Edge Manager 和 AWS IoT Greengrass PlatoBlockchain Data Intelligence 在边缘进行 MLOps。 垂直搜索。 哎。劳尔·迪亚斯·加西亚 是 AWS 专业服务团队的高级数据科学家。 他与欧洲、中东和非洲地区的大型企业客户合作,帮助他们在物联网领域实现与计算机视觉和机器学习相关的解决方案。

使用 Amazon SageMaker Edge Manager 和 AWS IoT Greengrass PlatoBlockchain Data Intelligence 在边缘进行 MLOps。 垂直搜索。 哎。索克拉提斯·卡尔塔基斯 是 Amazon Web Services 的高级机器学习专家解决方案架构师。 Sokratis 专注于通过利用 AWS 服务和塑造他们的运营模式(即 MLOps 基础)和利用最佳开发实践的转型路线图,使企业客户能够将他们的机器学习 (ML) 解决方案工业化。 他在能源、零售、健康、金融/银行、赛车运动等领域发明、设计、领导和实施创新的端到端生产级机器学习和物联网 (IoT) 解决方案已有 15 年多的时间。 Sokratis 喜欢与家人和朋友一起度过业余时间,或者骑摩托车。

使用 Amazon SageMaker Edge Manager 和 AWS IoT Greengrass PlatoBlockchain Data Intelligence 在边缘进行 MLOps。 垂直搜索。 哎。萨米尔·阿劳霍(SamirAraújo) 是AWS的AI / ML解决方案架构师。 他帮助客户创建AI / ML解决方案,以使用AWS解决其业务挑战。 他一直从事与计算机视觉,自然语言处理,预测,边缘ML等有关的多个AI / ML项目。 他喜欢在业余时间玩硬件和自动化项目,并且对机器人技术特别感兴趣。

时间戳记:

更多来自 AWS机器学习