2021年,我们推出了 AWS Support 主动服务 作为部分 AWS 企业支持 计划。 自推出以来,我们已经帮助数百家客户优化了他们的工作负载、设置了防护栏并提高了他们机器学习 (ML) 工作负载成本和使用情况的可见性。
在这一系列的帖子中,我们分享了关于优化成本的经验教训 亚马逊SageMaker。在 部分1,我们展示了如何开始使用 AWS 成本管理器 确定 SageMaker 中的成本优化机会。 在本文中,我们重点介绍 SageMaker 推理环境:实时推理、批量转换、异步推理和无服务器推理。
SageMaker 提供多种推理选项 供您根据工作负载要求进行选择:
- 实时推断 用于在线、低延迟或高吞吐量要求
- 批量转换 用于离线、计划处理以及当您不需要持久端点时
- 异步推理 适用于处理时间长且处理时间长的大负载并希望对请求进行排队的情况
- 无服务器推理 适用于间歇性或不可预测的流量模式并且可以容忍冷启动
在以下部分中,我们将更详细地讨论每个推理选项。
SageMaker 实时推理
当您创建终端节点时,SageMaker 会附加一个 Amazon Elastic Block商店 (Amazon EBS) 存储卷到 亚马逊弹性计算云 (Amazon EC2) 托管端点的实例。 对于没有 SSD 存储的所有实例类型都是如此。 由于 d* 实例类型带有 NVMe SSD 存储,因此 SageMaker 不会将 EBS 存储卷附加到这些 ML 计算实例。 参考 主机实例存储卷 对于 SageMaker 为单个终端节点和多模型终端节点的每个实例类型附加的存储卷的大小。
SageMaker 实时端点的成本基于端点运行时每个实例消耗的每个实例小时、预置存储(EBS 卷)每月 GB 的成本,以及进出处理的 GB 数据端点实例,如中所述 Amazon SageMaker定价. 在 Cost Explorer 中,您可以通过对使用类型应用过滤器来查看实时终端节点成本。 这些使用类型的名称结构如下:
REGION-Host:instanceType
(例如,USE1-Host:ml.c5.9xlarge
)REGION-Host:VolumeUsage.gp2
(例如,USE1-Host:VolumeUsage.gp2
)REGION-Hst:Data-Bytes-Out
(例如,USE2-Hst:Data-Bytes-In
)REGION-Hst:Data-Bytes-Out
(例如,USW2-Hst:Data-Bytes-Out)
如下截图所示,按使用类型过滤 Host:
将显示帐户中实时托管使用类型的列表。
您可以选择特定的使用类型或选择 选择全部 并选择 使用 显示 SageMaker 实时托管使用的成本明细。 要按实例小时数查看成本和使用情况明细,您需要取消选择所有 REGION-Host:VolumeUsage.gp2
在应用使用类型过滤器之前使用类型。 您还可以应用其他过滤器,例如帐号、EC2 实例类型、成本分配标签、区域和 更多. 以下屏幕截图显示了所选托管使用类型的成本和使用情况图。
此外,您可以使用 实例类型 筛选。 以下屏幕截图显示了托管实例 ml.p2.xlarge 的成本和使用明细。
同样,可以通过选择关联的使用类型作为已应用的筛选器来显示处理传入和处理出的 GB 数据的成本,如以下屏幕截图所示。
使用筛选器和分组获得所需结果后,您可以通过选择下载结果 下载为 CSV 或通过选择保存报告 保存到报告库. 有关使用 Cost Explorer 的一般指南,请参阅 AWS Cost Explorer 的新外观和常见使用案例.
或者,您可以启用 AWS 成本和使用报告 (AWS CUR) 以深入了解您账户的成本和使用数据。 AWS CUR 包含每小时 AWS 消耗详细信息。 它存储在 亚马逊简单存储服务 (Amazon S3) 在付款人账户中,它整合了所有关联账户的数据。 您可以运行查询来分析您的使用趋势并采取适当的措施来优化成本。 亚马逊雅典娜 是一种无服务器查询服务,可用于使用标准 SQL 分析来自 Amazon S3 中 AWS CUR 的数据。 更多信息和示例查询可以在 AWS CUR 查询库.
您还可以将 AWS CUR 数据输入 亚马逊QuickSight,您可以在其中以任何您喜欢的方式对其进行切片和切块,以用于报告或可视化目的。 有关说明,请参阅 如何将 AWS 成本和使用报告 (CUR) 提取并可视化到 Amazon QuickSight 中.
您可以从 AWS CUR 获取资源级信息,例如端点 ARN、端点实例类型、每小时实例费率、每日使用小时数等。 您还可以在查询中包含成本分配标签,以获得更高的粒度级别。 以下示例查询返回给定付款人账户过去 3 个月的实时托管资源使用情况:
以下屏幕截图显示了使用 Athena 运行查询所获得的结果。 有关详细信息,请参阅 使用 Amazon Athena 查询成本和使用情况报告.
查询结果显示端点 mme-xgboost-housing
ml.x4.xlarge 实例连续多天报告 24 小时运行时间。 实例费率为 0.24 美元/小时,运行 24 小时的每日成本为 5.76 美元。
AWS CUR 结果可以帮助您识别在每个关联账户中连续运行几天的终端节点模式,以及每月成本最高的终端节点。 这也可以帮助您决定是否可以删除非生产账户中的端点以节省成本。
优化实时端点的成本
从成本管理的角度来看,确定未充分利用(或超大)的实例并根据工作负载要求调整实例大小和数量(如果需要)非常重要。 CPU/GPU 利用率和内存利用率等常见系统指标写入 亚马逊CloudWatch 对于所有托管实例。 对于实时终端节点,SageMaker 在 CloudWatch 中提供了几个额外的指标。 一些常用的监控指标包括调用计数和调用 4xx/5xx 错误。 有关指标的完整列表,请参阅 使用Amazon CloudWatch监控Amazon SageMaker.
指标 CPUUtilization
提供每个单独的 CPU 内核利用率的总和。 每个核心范围的 CPU 利用率为 0–100。 例如,如果有四个 CPU,则 CPUUtilization
范围是 0–400%。 公制 MemoryUtilization
是容器在实例上使用的内存百分比。 该值范围为 0–100%。 以下屏幕截图显示了 CloudWatch 指标的示例 CPUUtilization
和 MemoryUtilization
对于带有 4.10 个 vCPU 和 40 GiB 内存的端点实例 ml.m160xlarge。
这些指标图显示最大 CPU 利用率约为 3,000%,相当于 30 个 vCPU。 这意味着此端点未使用超过 30 个 vCPU 的总容量中的 40 个 vCPU。 同样,内存利用率低于 6%。 使用此信息,您可以尝试使用可满足此资源需求的较小实例。 此外, CPUUtilization
指标显示了周期性高和低 CPU 需求的经典模式,这使得该端点成为自动缩放的良好候选者。 您可以从较小的实例开始,然后随着计算需求的变化而先向外扩展。 有关信息,请参阅 自动缩放Amazon SageMaker模型.
SageMaker 非常适合测试新模型,因为您可以使用以下命令轻松地将它们部署到 A/B 测试环境中 生产变体,而且您只需为使用的内容付费。 每个生产变体都在其自己的计算实例上运行,您需要按变体运行时每个实例消耗的实例小时数付费。
SageMaker 还支持 阴影变体,它们具有与生产变体相同的组件,并在自己的计算实例上运行。 借助影子变体,SageMaker 在测试环境中自动部署模型,将生产模型收到的推理请求的副本实时路由到测试模型,并收集延迟和吞吐量等性能指标。 这使您能够在将其推广到生产之前验证模型服务堆栈的任何新候选组件。
当您完成测试并且不再广泛使用端点或变体时,您应该将其删除以节省成本。 由于模型存储在 Amazon S3 中,您可以根据需要重新创建它。 您可以通过使用自动检测这些端点并采取纠正措施(例如删除它们) Amazon CloudWatch活动 和 AWS Lambda 功能。 例如,您可以使用 Invocations
指标以获取发送到模型端点的请求总数,然后检测端点是否在过去的小时数内处于空闲状态(在特定时间段内没有调用,例如 24 小时)。
如果您有多个未充分利用的端点实例,请考虑托管选项,例如 多模型端点 (MME), 多容器端点 (MCE),以及 串行推理管道 将使用整合到更少的端点实例。
对于实时和异步推理模型部署,您可以通过使用以下命令在 SageMaker 上部署模型来优化成本和性能 AWS 引力子. AWS Graviton 是 AWS 设计的一系列处理器,可提供最佳性价比,并且比 x86 处理器更节能。 有关将 ML 模型部署到基于 AWS Graviton 的实例的指南以及有关性价比优势的详细信息,请参阅 使用 Amazon SageMaker 在基于 AWS Graviton 的实例上运行机器学习推理工作负载. SageMaker 还支持 AWS 推理 加速器通过 毫升inf2 用于部署 ML 模型以进行实时和异步推理的实例系列。 您可以在 SageMaker 上使用这些实例以低成本实现生成式人工智能 (AI) 模型的高性能,包括大型语言模型 (LLM) 和视觉转换器。
另外,你可以使用 Amazon SageMaker 推理推荐器 运行负载测试并评估在这些实例上部署模型的性价比优势。 有关自动检测空闲 SageMaker 端点以及 SageMaker 端点的实例大小调整和自动缩放的其他指南,请参阅 确保 Amazon SageMaker 上的高效计算资源.
SageMaker批量转换
批量推理,或 离线推理,是对一批观察结果生成预测的过程。 离线预测适用于较大的数据集,以及您可以承受几分钟或几小时等待响应的情况。
SageMaker 批量转换的成本基于批量转换作业运行时每个实例消耗的每个实例小时,如中所述 Amazon SageMaker定价. 在 Cost Explorer 中,您可以通过对使用类型应用过滤器来探索批量转换成本。 此使用类型的名称结构为 REGION-Tsform:instanceType
(例如, USE1-Tsform:ml.c5.9xlarge
).
如下截图所示,按使用类型过滤 Tsform:
将显示帐户中 SageMaker 批量转换使用类型的列表。
您可以选择特定的使用类型或选择 选择全部 并选择 使用 显示所选类型的批量转换实例使用的成本明细。 如前所述,您还可以应用其他过滤器。 以下屏幕截图显示了所选批量转换使用类型的成本和使用情况图。
优化批量转换的成本
SageMaker 批量转换仅对作业运行时使用的实例收费。 如果您的数据已在 Amazon S3 中,则从 Amazon S3 读取输入数据并将输出数据写入 Amazon S3 是免费的。 尝试将所有输出对象上传到 Amazon S3。 如果全部成功,则批量转换作业被标记为完成。 如果一个或多个对象失败,则批量转换作业将标记为失败。
批量转换作业的费用适用于以下场景:
- 作业成功
- 失败原因
ClientError
并且模型容器是 SageMaker 或 SageMaker 托管框架 - 失败原因
AlgorithmError
orClientError
并且模型容器是您自己的自定义容器(自来客)
以下是优化 SageMaker 批量转换作业的一些最佳实践。 这些建议可以减少批量转换作业的总运行时间,从而降低成本:
- 在
批量策略 至
MultiRecord
和SplitType
至Line
如果您需要批量转换作业从输入文件生成小批量。 如果它不能自动将数据集拆分成小批次,您可以通过将每个批次放在一个单独的输入文件中,将其分成小批次,放置在数据源 S3 存储桶中。 - 确保批量大小适合内存。 SageMaker 通常会自动处理此问题; 但是,手动分批时,需要根据内存进行调整。
- 批量转换按键对输入中的 S3 对象进行分区,并将这些对象映射到实例。 当您有多个文件时,一个实例可能会处理
input1.csv
,另一个实例可能会处理input2.csv
. 如果您有一个输入文件但初始化多个计算实例,则只有一个实例处理输入文件,其余实例处于空闲状态。 确保文件数等于或大于实例数。 - 如果您有大量小文件,将多个文件合并为少量较大文件可能有助于减少 Amazon S3 交互时间。
- 如果您使用的是 创建转换作业 API,您可以通过使用参数的最佳值来减少完成批量转换作业所需的时间,例如 最大有效负载(以MB为单位), 最大并发转换或 批量策略:
MaxConcurrentTransforms
指示可以发送到转换作业中每个实例的最大并行请求数。 的理想值MaxConcurrentTransforms
等于实例中的 vCPU 内核数。MaxPayloadInMB
是负载的最大允许大小,以 MB 为单位。 中的价值MaxPayloadInMB
必须大于或等于单个记录的大小。 要以 MB 为单位估算记录的大小,请将数据集的大小除以记录数。 为确保记录适合最大负载大小,我们建议使用稍大的值。 默认值为 6 MB。MaxPayloadInMB
不得大于 100 MB。 如果您指定可选MaxConcurrentTransforms
参数,然后是 (MaxConcurrentTransforms
*MaxPayloadInMB
) 也不得超过 100 MB。- 对于负载可能任意大并使用 HTTP 分块编码传输的情况,请将 MaxPayloadInMB 值设置为 0。此功能仅适用于受支持的算法。 目前,SageMaker 内置算法不支持 HTTP 分块编码。
- 批量推理任务通常是水平缩放的良好候选者。 集群中的每个工作人员都可以对不同的数据子集进行操作,而无需与其他工作人员交换信息。 AWS 提供多种支持水平扩展的存储和计算选项。 如果单个实例不足以满足您的性能要求,请考虑使用多个并行实例来分配工作负载。 有关构建批量转换作业时的关键注意事项,请参阅 使用 Amazon SageMaker 进行大规模批量推理.
- 使用 CloudWatch 持续监控 SageMaker 批量转换作业的性能指标。 查找瓶颈,例如高 CPU 或 GPU 利用率、内存使用率或网络吞吐量,以确定是否需要调整实例大小或配置。
- SageMaker 使用 Amazon S3 分段上传API 将批量转换作业的结果上传到 Amazon S3。 如果发生错误,上传的结果将从 Amazon S3 中删除。 在某些情况下,例如发生网络中断时,不完整的分段上传可能会保留在 Amazon S3 中。 为避免产生存储费用,我们建议您添加 S3 存储桶策略 到 S3 存储桶生命周期规则。 此策略会删除可能存储在 S3 存储桶中的不完整分段上传。 有关详细信息,请参阅 管理您的存储生命周期.
SageMaker 异步推理
异步推理是具有大负载和突发流量的成本敏感型工作负载的绝佳选择。 处理请求最多可能需要 1 小时,负载大小最多为 1 GB,因此它更适合对延迟要求较低的工作负载。
异步端点的调用不同于实时端点。 您无需将请求负载与请求同步传递,而是将负载上传到 Amazon S3 并将 S3 URI 作为请求的一部分进行传递。 在内部,SageMaker 维护一个包含这些请求的队列并处理它们。 在端点创建期间,您可以选择指定一个 亚马逊简单通知服务 (Amazon SNS) 接收成功或错误通知的主题。 当您收到推理请求已成功处理的通知时,您可以访问输出 Amazon S3 位置中的结果。
异步推理的成本基于端点运行时每个实例消耗的每个实例小时、预置存储的 GB 月成本以及在端点实例内外处理的 GB 数据,如中所述 Amazon SageMaker定价. 在 Cost Explorer 中,您可以通过对使用类型应用过滤器来过滤异步推理成本。 此使用类型的名称结构为 REGION-AsyncInf:instanceType
(例如, USE1-AsyncInf:ml.c5.9xlarge
). 请注意,GB 容量和 GB 数据处理使用类型与实时端点相同,如本文前面所述。
如下截图所示,按使用类型过滤 AsyncInf:
在 Cost Explorer 中,按异步端点使用类型显示成本细目。
要按实例小时数查看成本和使用情况明细,您需要取消选择所有 REGION-Host:VolumeUsage.gp2
在应用使用类型过滤器之前使用类型。 您还可以应用其他过滤器。 可以从 AWS CUR 获取资源级信息,例如端点 ARN、端点实例类型、每小时实例费率和每日使用小时数。 以下是一个 AWS CUR 查询示例,用于获取最近 3 个月的异步托管资源使用情况:
以下屏幕截图显示了使用 Athena 运行 AWS CUR 查询获得的结果。
查询结果显示端点 sagemaker-abc-model-5
ml.m5.xlarge 实例连续多天报告 24 小时的运行时间。 实例费率为 0.23 美元/小时,运行 24 小时的每日成本为 5.52 美元。
如前所述,AWS CUR 结果可以帮助您识别连续几天运行的终端节点模式,以及每月成本最高的终端节点。 这也可以帮助您决定是否可以删除非生产账户中的端点以节省成本。
优化异步推理的成本
就像实时端点一样,异步端点的成本基于实例类型的使用。 因此,识别未充分利用的实例并根据工作负载要求调整它们的大小非常重要。 为了监控异步端点,SageMaker 使 几个指标 如 ApproximateBacklogSize
, HasBacklogWithoutCapacity
,以及 CloudWatch 中提供的更多内容。 这些指标可以显示实例队列中的请求,并可用于自动缩放端点。 SageMaker 异步推理还包括主机级指标。 有关主机级别指标的信息,请参阅 SageMaker 作业和端点指标. 这些指标可以显示可以帮助您调整实例大小的资源利用率。
SageMaker 支持 自动缩放 对于异步端点。 与实时托管端点不同,异步推理端点支持通过将最小容量设置为零来将实例缩减为零。 对于异步端点,SageMaker 强烈建议您为已部署模型(变体)的目标跟踪扩展创建策略配置。 您需要定义缩放策略 ApproximateBacklogPerInstance
自定义指标并设置 MinCapacity
值归零。
异步推理使您能够通过在没有请求要处理时将实例计数自动缩放为零来节省成本,因此您只需在端点处理请求时付费。 实例数为零时收到的请求在端点扩展后排队等待处理。 因此,对于可以容忍几分钟冷启动损失的用例,您可以选择在没有未完成的请求时将端点实例计数缩减为零,并在新请求到达时进行备份。 冷启动时间取决于从头开始启动新端点所需的时间。 另外,如果模型本身很大,那么时间可以更长。 如果您的作业预计需要超过 1 小时的处理时间,您可能需要考虑 SageMaker 批量转换。
此外,您还可以考虑请求的排队时间和处理时间来选择实例类型。 例如,如果您的用例可以忍受数小时的等待时间,您可以选择较小的实例以节省成本。
有关 SageMaker 端点的实例大小调整和自动缩放的更多指南,请参阅 确保 Amazon SageMaker 上的高效计算资源.
无服务器推理
无服务器推理允许您部署 ML 模型进行推理,而无需配置或管理底层基础设施。 根据您的模型收到的推理请求量,SageMaker 无服务器推理会自动配置、扩展和关闭计算容量。 因此,您只需为运行推理代码的计算时间和处理的数据量付费,而不是为空闲时间付费。 对于无服务器端点,实例配置不是必需的。 您需要提供 内存大小和最大并发. 由于无服务器端点按需提供计算资源,因此您的端点可能会在空闲期后的第一次调用中经历几秒的额外延迟(冷启动)。 您为用于处理推理请求的计算容量付费,按毫秒、每月 GB 的预置存储和处理的数据量计费。 计算费用取决于您选择的内存配置。
在 Cost Explorer 中,您可以通过对使用类型应用过滤器来过滤无服务器端点成本。 此使用类型的名称结构为 REGION-ServerlessInf:Mem-MemorySize
(例如, USE2-ServerlessInf:Mem-4GB
). 请注意,GB 容量和 GB 数据处理使用类型与实时端点相同。
您可以通过应用其他过滤器(例如帐号、实例类型、区域等)来查看成本明细。 以下屏幕截图显示了通过为无服务器推理使用类型应用过滤器来进行的成本细分。
优化无服务器推理的成本
配置无服务器端点时,您可以指定内存大小和最大并发调用数。 SageMaker 无服务器推理会根据您选择的内存按比例自动分配计算资源。 如果您选择更大的内存大小,您的容器可以访问更多的 vCPU。 使用无服务器推理,您只需为用于处理推理请求的计算能力(按毫秒计费)和处理的数据量付费。 计算费用取决于您选择的内存配置。 您可以选择的内存大小有 1024 MB、2048 MB、3072 MB、4096 MB、5120 MB 和 6144 MB。 定价随着内存大小的增加而增加,如中所述 Amazon SageMaker定价,因此选择正确的内存大小很重要。 作为一般规则,内存大小应至少与模型大小一样大。 但是,除了模型大小本身之外,在确定端点内存大小时还应参考内存利用率是一种很好的做法。
优化 SageMaker 推理成本的一般最佳实践
优化托管成本不是一次性事件。 这是一个持续监控部署的基础设施、使用模式和性能的过程,同时密切关注 AWS 发布的可能影响成本的创新解决方案。 考虑以下最佳实践:
- 选择合适的实例类型 – SageMaker 支持多种实例类型,每种实例类型都具有不同的 CPU、GPU、内存和存储容量组合。 根据您模型的资源需求,选择可提供必要资源且不会过度供应的实例类型。 有关可用的 SageMaker 实例类型、它们的规格以及选择正确实例的指南的信息,请参阅 确保 Amazon SageMaker 上的高效计算资源.
- 使用本地模式测试 – 为了更快地检测故障和调试,建议测试代码和容器(在 BYOC 的情况下) 本地模式 在远程 SageMaker 实例上运行推理工作负载之前。 本地模式是在 SageMaker 托管托管环境中运行脚本之前测试脚本的好方法。
- 优化模型以提高性能 – 未优化的模型会导致更长的运行时间和使用更多的资源。 您可以选择使用更多或更大的实例来提高性能; 然而,这会导致更高的成本。 通过优化您的模型以提高性能,您可以通过使用更少或更小的实例来降低成本,同时保持相同或更好的性能特征。 您可以使用 亚马逊SageMaker Neo 使用 SageMaker 推理自动优化模型。 有关详细信息和示例,请参阅 使用 Neo 优化模型性能.
- 使用标签和成本管理工具 – 为了保持对推理工作负载的可见性,建议使用标签以及 AWS 成本管理工具,例如 AWS 预算是, AWS 账单控制台,以及 Cost Explorer 的预测功能。 您还可以探索 SageMaker Savings Plans 作为一种灵活的定价模型。 有关这些选项的更多信息,请参阅 部分1 这个系列。
结论
在本文中,我们提供了有关使用 SageMaker 推理选项时的成本分析和最佳实践的指导。 随着机器学习成为跨行业的强大工具,培训和运行 ML 模型需要保持成本效益。 SageMaker 提供广泛而深入的功能集,以促进 ML 管道中的每个步骤,并提供成本优化机会,而不会影响性能或敏捷性。 联系您的 AWS 团队,获取有关 SageMaker 工作负载的成本指南。
作者简介
迪帕里•拉贾莱 是 AWS 的高级 AI/ML 专家。 她与企业客户合作,为在 AWS 生态系统中部署和维护 AI/ML 解决方案提供技术指导和最佳实践。 她曾与众多组织合作处理涉及 NLP 和计算机视觉的各种深度学习用例。 她热衷于帮助组织利用生成式 AI 来增强他们的使用体验。 在业余时间,她喜欢电影、音乐和文学。
乌里·罗森博格 是欧洲、中东和非洲的人工智能和机器学习专家技术经理。 Uri 总部位于以色列,致力于为企业客户提供有关 ML 的所有东西的支持,以大规模设计、构建和运营。 在业余时间,他喜欢骑自行车、徒步旅行和攀岩。
- SEO 支持的内容和 PR 分发。 今天得到放大。
- 柏拉图爱流。 Web3 数据智能。 知识放大。 访问这里。
- 与 Adryenn Ashley 一起铸造未来。 访问这里。
- 使用 PREIPO® 买卖 PRE-IPO 公司的股票。 访问这里。
- Sumber: https://aws.amazon.com/blogs/machine-learning/part-5-analyze-amazon-sagemaker-spend-and-determine-cost-optimization-opportunities-based-on-usage-part-5-hosting/
- :具有
- :是
- :不是
- :在哪里
- $UP
- 000
- 1
- 100
- 2021
- 24
- 30
- 40
- 500
- 7
- 8
- a
- Able
- 关于
- 加速器
- ACCESS
- 账号管理
- 账户
- 实现
- 横过
- 操作
- 行动
- 加
- 增加
- 额外
- 非洲
- 后
- AI
- AI / ML
- 算法
- 所有类型
- 分配
- 允许
- 已经
- 还
- Amazon
- Amazon EC2
- 亚马逊SageMaker
- 亚马逊网络服务
- 量
- an
- 分析
- 分析
- 和
- 另一个
- 任何
- 再
- API
- 应用的
- 使用
- 应用
- 适当
- 约
- 保健
- 人造的
- 人工智能
- 人工智能(AI)
- AS
- 相关
- At
- 连接
- 尝试
- 汽车
- 自动
- 可使用
- 避免
- AWS
- 背部
- 基于
- BE
- 因为
- 很
- before
- 如下。
- 有利
- 得益
- 好处
- 最佳
- 最佳实践
- 更好
- 大
- 大
- 计费
- 阻止
- 击穿
- 带来
- 建立
- 内建的
- 但是
- by
- CAN
- 候选人
- 候选人
- 能力
- 容量
- 案件
- 例
- 一定
- 更改
- 特点
- 充
- 带电
- 收费
- 选择
- 选择
- 经典
- 攀登
- 簇
- 码
- 冷
- 组合
- 结合
- 结合
- 如何
- 购买的订单均
- 相当常见
- 常用
- 完成
- 元件
- 组件
- 计算
- 一台
- 计算机视觉
- 并发
- 配置
- 连续
- 考虑
- 注意事项
- 巩固
- 来合并
- 消费
- 消费
- 容器
- 集装箱
- 包含
- 连续
- 核心
- 正确
- 价格
- 成本管理
- 经济有效
- 成本
- 可以
- 创建信息图
- 创建
- 目前
- 习俗
- 合作伙伴
- 每天
- data
- 数据集
- 一年中的
- 决定
- 决定
- 深
- 深入学习
- 默认
- 需求
- 依靠
- 部署
- 部署
- 部署
- 部署
- 部署
- 设计
- 设计
- 期望
- 细节
- 详情
- 确定
- 不同
- 讨论
- 屏 显:
- 显示器
- 分发
- do
- 不会
- 完成
- 别
- 翻番
- 向下
- 下载
- 两
- ,我们将参加
- 每
- 此前
- 容易
- 东部
- 生态系统
- 高效
- 或
- 授权
- 授权
- enable
- 使
- 端点
- 能源
- 提高
- 确保
- 企业
- 环境
- 环境中
- 等于
- 错误
- 故障
- 建立
- 评估
- 欧洲
- 评估
- 活动
- 例子
- 超过
- 交换
- 预期
- 体验
- 实验
- 解释
- 探索
- 探险家
- 广泛
- 额外
- 眼
- 促进
- 失败
- 失败
- 家庭
- 快
- 专栏
- 少数
- 少
- 文件
- 档
- 过滤
- 过滤
- 过滤器
- (名字)
- 适合
- 柔软
- 专注焦点
- 以下
- 如下
- 针对
- 发现
- 四
- 止
- ,
- 功能
- 此外
- Gain增益
- 其他咨询
- 发电
- 生成的
- 生成式人工智能
- 得到
- 特定
- 非常好
- GPU
- 图表
- 大
- 更大的
- 团队
- 指导
- 手柄
- 有
- 有
- he
- 帮助
- 帮助
- 这里
- 高
- 更高
- 最高
- 他的
- 横
- 托管
- 托管
- 托管费用
- 为了
- 小时
- HOURS
- 创新中心
- How To
- 但是
- HTML
- HTTP
- HTTPS
- 数百
- i
- 理想
- 鉴定
- 空闲
- if
- 影响力故事
- 影响
- 重要
- 改善
- in
- 包括
- 包括
- 包含
- 增加
- 表示
- 个人
- 行业
- 信息
- 基础设施
- 创新
- 输入
- 可行的洞见
- 例
- 说明
- 房源搜索
- 相互作用
- 内部
- 成
- 介绍
- 涉及
- 以色列
- IT
- 它的
- 本身
- 工作
- 工作机会
- JPG
- 敏锐
- 保持
- 键
- 语言
- 大
- 大
- (姓氏)
- 潜伏
- 发射
- 推出
- 铅
- 信息
- 知道
- 学习
- 最少
- 教训
- 经验教训
- Level
- 杠杆作用
- 生命周期
- 喜欢
- Line
- 链接
- 清单
- 文学
- 加载
- 本地
- 圖書分館的位置
- 长
- 不再
- 看
- 低
- 降低
- 一蹴即至
- 机
- 机器学习
- 保持
- 维护
- 维护
- 使
- 制作
- 管理
- 管理
- 颠覆性技术
- 管理工具
- 经理
- 手动
- 地图
- 标
- 匹配
- 最多
- 可能..
- 手段
- 满足
- 内存
- 提到
- 公
- 指标
- 中间
- 中东
- 可能
- 最低限度
- 分钟
- ML
- 时尚
- 模型
- 模型
- 显示器
- 监控
- 监控
- 月
- 每月一次
- 个月
- 更多
- 电影
- 多模型端点
- 多
- 音乐
- 必须
- 姓名
- 名称
- 必要
- 需求
- 打印车票
- 需要
- 网络
- 网络中断
- 全新
- NLP
- 没有
- 通知
- 通知
- 数
- 对象
- 获得
- 获得
- of
- 折扣
- 优惠精选
- 这一点在线下监测数字化产品的影响方面尤为明显。
- on
- 一
- 在线
- 仅由
- 操作
- 机会
- 最佳
- 优化
- 优化
- 追求项目的积极优化
- 附加选项
- 附加选项
- or
- 秩序
- 组织
- 其他名称
- 输出
- 停运
- 概述
- 产量
- 优秀
- 超过
- 己
- 并行
- 参数
- 参数
- 部分
- 通过
- 通过
- 多情
- 过去
- 模式
- 模式
- 百分比
- 性能
- 期间
- 定期
- 透视
- 挑
- 管道
- 计划
- 计划
- 柏拉图
- 柏拉图数据智能
- 柏拉图数据
- 政策
- 或者
- 帖子
- 帖子
- 强大
- 在练习上
- 做法
- 预测
- 车资
- 价格
- 定价模型
- 主动
- 过程
- 处理
- 过程
- 处理
- 处理器
- 生产
- 促进
- 提供
- 提供
- 提供
- 优
- 规定
- 目的
- 把
- 查询
- 范围
- 率
- 宁
- 达到
- 阅读
- 真实
- 实时的
- 接收
- 收到
- 接收
- 建议
- 建议
- 建议
- 建议
- 记录
- 记录
- 减少
- 地区
- 发布
- 留
- 远程
- 去除
- 报告
- 报告
- 业务报告
- 请求
- 要求
- 必须
- 岗位要求
- 资源
- 资源
- 响应
- REST的
- 导致
- 成果
- 回报
- 右
- 岩石
- 滚
- 路线
- 第
- 定位、竞价/采购和分析/优化数字媒体采购,但算法只不过是解决问题的操作和规则。
- 运行
- 运行
- sagemaker
- SageMaker 推理
- 同
- 保存
- 储
- 鳞片
- 秤
- 缩放
- 情景
- 预定
- 划伤
- 脚本
- 秒
- 部分
- 看到
- 选
- 选择
- 前辈
- 发送
- 分开
- 系列
- 无服务器
- 服务
- 特色服务
- 服务
- 集
- 设置
- 几个
- 阴影
- Share
- 她
- 应该
- 显示
- 显示
- 如图
- 作品
- 同样
- 简易
- 自
- 单
- 尺寸
- 尺寸
- 切片
- 小
- 小
- So
- 解决方案
- 一些
- 来源
- 专家
- 具体的
- 规格
- 花
- 分裂
- 堆
- 标准
- 开始
- 开始
- 步
- 存储
- 存储
- 非常
- 结构化
- 成功
- 成功
- 顺利
- 这样
- 足够
- 合适的
- SUPPORT
- 支持主动
- 支持
- 支持
- 系统
- 行李牌
- 采取
- 需要
- 任务
- 团队
- 文案
- test
- 测试
- 测试
- 比
- 这
- 其
- 他们
- 然后
- 那里。
- 从而
- 因此
- 博曼
- 事
- Free Introduction
- 那些
- 通过
- 吞吐量
- 次
- 时
- 至
- 工具
- 工具
- 主题
- 合计
- 交通
- 产品培训
- 改造
- 变形金刚
- 趋势
- true
- 原来
- 类型
- 类型
- 相关
- 不像
- 变幻莫测
- 上传
- 用法
- 使用
- 用例
- 用过的
- 使用
- 运用
- 平时
- 利用
- 验证
- 折扣值
- 价值观
- 变种
- 各个
- 查看
- 能见度
- 愿景
- 可视化
- 体积
- 卷
- 等待
- 想
- 方法..
- we
- 卷筒纸
- Web服务
- 井
- 什么是
- ,尤其是
- 是否
- 这
- 而
- 宽
- 大范围
- 将
- 中
- 也完全不需要
- 工作
- 工人
- 工人
- 合作
- 写作
- 书面
- 完全
- 您一站式解决方案
- 和风网
- 零