CPU 在可持续 AI/ML 中的作用

CPU 在可持续 AI/ML 中的作用

CPU 在可持续 AI/ML Plato 区块链数据智能中的作用。垂直搜索。人工智能。

社论式广告 随着人工智能在商业计算环境中的影响力不断扩大,它的影响正在引发一些意想不到的连锁反应。 IDC最新 未来景观 例如,报告预测,随着公司竞相推出人工智能增强型产品/服务并协助客户实施人工智能,该技术将成为创新的关键动力。

另一项人工智能驱动的变革取决于数据中心可能必须在多大程度上平衡 CPU 与离散人工智能加速器(例如 GPU 或专用架构),以便提供人工智能开发人员所需的高性能计算能力。

这场争论给数据中心所有者带来了高风险问题,无论是在额外的资本支出投资方面,还是在(虽然测量方法不精确)典型的 GPU 驱动的人工智能操作比传统 IT 工作负载消耗更多电力的可能性方面。

处理人工智能更高的电力/碳开销是数据中心运营的另一个痛点,数据中心运营还必须确保针对人工智能优化的升级计算架构能够管理增加的电力需求,而不存在使现有技术或设施超载的风险。

因此,随着可持续发展治理和碳管理的扩展监管推动运营减少整个 IT 硬件和软件的能源使用,人工智能既带来了机遇,也带来了障碍。

降低AI功耗

英特尔人工智能卓越中心的人工智能 GTM 总监 Stephan Gillich 解释说,总而言之,增加的功耗以及适应人工智能和机器学习工作负载所需的必要架构重新配置对数据中心构成了不可阻挡的挑战。

“很明显,无论在哪个垂直领域和行业,无论在何处开发、培训和运行人工智能/机器学习应用程序和服务,本地和云托管的 IT 设施的功能都必须进行升级,以处理不断增加的数据量-密集的工作负载,”吉利奇说。 “同样明显的是,这些升级不仅仅需要提高计算能力。”

吉利奇认为,要增强以人工智能为中心的数据中心的可持续性,可以做很多事情,首先要重新评估围绕人工智能/机器学习领域的一些假设。处理单元是一个很好的起点,特别是在决定 CPU 还是 GPU 更适合任务时。

因为虽然人工智能特定的计算密集型工作负载似乎在增加(没有人确切知道以什么速度增长),但大部分数据中心工作(非人工智能工作负载)必须继续日复一日地进行——提供稳定的应用程序和服务收入来源不受影响。

其中大部分目前由 CPU 处理,而用更昂贵的 GPU 改装标准数据中心对于很多设施来说都超出了要求。一般来说,执行类似任务时 GPU 比 CPU 消耗更多瓦数。根据给定机架配置的电源,将 GPU 集成到数据中心基础设施中需要升级配电系统,这势必会产生额外的前期成本,而且一旦运行就会产生更高的能源费用。

更重要的是,英特尔的CPU开发不断创新。 Gillich 认为,在多个用例中,CPU 可以被证明可以实现与 GPU 一样好的(有时甚至更好)整体性能。它们的性能可以通过突破性技术得到增强,例如英特尔® AMX(高级矩阵扩展),这是第四代英特尔至强 CPU 中内置的加速器。

Gillich 指出:“英特尔至强处理器可以让数据中心通过内置 AI 加速来扩展 AI 的采用,从而提高机器学习、训练和推理的 CPU 性能。” “这样,他们就可以采用分立加速器来最大限度地减少资本支出并最大限度地提高性能,同时利用现有的英特尔至强处理环境。”

需要混合人工智能和非人工智能工作负载

英特尔 AMX 是英特尔至强可扩展处理器核心上的专用硬件模块,使人工智能工作负载能够在 CPU 上运行,而不是将其卸载到独立加速器上,从而显着提升性能。它适用于依赖矩阵数学的人工智能工作负载,例如机器学习推荐系统、图像识别和自然语言处理。

支持增强型 CPU 的另一个论点是,它们为数据中心运营商提供了一种经济高效的途径,使他们能够更多地利用现有的 CPU 承诺,使其资产面向未来,以便他们能够承担混合工作负载,并使他们能够更好地控制整体用电量。

反过来,这可以帮助数据中心服务提供商(及其客户)实现可持续发展目标,并为正在寻找优化平台来展示其编码的能源效率的软件开发人员(企业或第三方)提供一个卖点输出。

“现实情况是,数据中心运营商并没有急于抓住人工智能工作负载可能带来的机会,而是意识到他们应该考虑一系列必要的事项,这些事项既要考虑到商业问题,也要考虑到技术选择,”吉利奇说。

这些要求可能包括:人工智能工作负载与非人工智能工作负载的集成;不同硬件和软件堆栈的集成;因为他们希望确保拥有适合多种不同工作负载的架构,以及不同工作流类型的集成。

“这些问题指向复杂的挑战,因为正确解决这些问题关系到最佳技术和能源效率——能源效率现在是一个核心性能基准,将日益影响数据中心的商业可行性,”Gillich 说。 “所以再说一遍,这是最重要的。”

从吉利奇的角度来看,适应这一新兴现实的关键是所谓的“人工智能同化”的逐步过程。这里的第一点是,人工智能工作负载不会与其他工作负载类型分离——它们将集成到传统工作负载中,而不是单独运行。

Gillich 以视频会议作为分阶段集成的一个例子:“在跨标准应用程序传输标准音频/视频流量时,人工智能已经被集成来执行摘要、翻译、转录等伴随任务。 AI 很好地支持了这些功能。

端到端节能

吉利奇认为,实现能源效率必须是一项真正的端到端战略任务。 “它跨越软件方面以及硬件架构——支持给定工作流程的完整机制。数据存储在哪里以使访问最有效(计算方面,因此能源方面)是能源效率的最佳位置吗?”

纳入此评估的另一个因素是确定工作负载在哪里运行。例如,它是否在客户端上运行(例如配备 Intel Core Ultra 处理器的 AI PC,而不是数据中心的服务器上?其中一些 AI 工作负载实际上可以在客户端上运行(与服务器一起)吗?

吉利奇认为,如果每个选项有助于更好地实现人工智能计算/功耗平衡,那么它就值得考虑:“这几乎就像回到了老式的分布式计算概念。”

吉利奇补充道:“有时我们的客户会问,‘人工智能将在哪里发挥作用?’ ——答案是人工智能将无处不在。因此,在英特尔,我们的目标集中在所谓的人工智能的普遍适应上,因为我们相信它将进入所有应用领域。”

在英特尔,这包括 API 等中间件,与软件堆栈的任何其他部分一样,它必须尽可能高效。 “API 蔓延”可能会导致不必要的处理、最大限度地减少基础设施占用以及缺乏监控和控制。

“随着 英特尔oneAPI,企业可以实现其全部硬件价值,开发高性能跨架构代码,并使其应用程序为未来需求做好准备。”Gillich 解释道。

“英特尔 oneAPI 是一种开放、跨行业、基于标准、统一、多架构、多供应商的编程模型,可跨加速器架构提供通用的开发人员体验,从而实现更快的应用性能并提高生产力。 oneAPI 计划鼓励在整个生态系统中就 oneAPI 规范和兼容的 oneAPI 实现进行协作。”

Gillich 补充道:“oneAPI 提供了一个中间件堆栈,它采用 AI 框架等标准内容(例如 Pytorch 或 TensorFlow [AI 和机器学习的开源软件平台]),并在机器级别对其进行转换,oneAPI 提供了一种有效的方法去做。用户可以在人工智能框架级别使用通用 API,我们有一个 API (oneAPI) 可以解决不同的硬件风格。”因此,通用 API 意味着用户可以创建受开放软件堆栈支持的开放软件。

以 CPU 级别的价格提供 GPU 级别的性能

IT 的进步主要是由对持续技术进步的期望以及洞察力驱动的部署策略改进所推动的。该模型基于寻找预算支出和业务投资回报率之间可实现的最佳平衡,以及始终追求进一步创新的期望。人工智能代表了这一理想的顶峰——它足够聪明,可以通过不断的自我完善来重塑自己的价值主张。

通过将 AMX 加速器构建到第四代英特尔至强 CPU 中,英特尔展示了如何以 CPU 级别的价位实现 GPU 级别的性能。这使得数据中心能够进行扩展,同时最大限度地提高现有英特尔至强处理器的回报价值,而且还提供了一种定价模型,可以降低具有人工智能工作负载但预算有限的客户的进入成本。

CPU 的较低功耗意味着可以在数据中心设施的整个运营(例如冷却和通风)中全面实现能源效率,这对于注重可持续发展的软件架构师和 AL 解决方案开发人员来说是另一个成功的推动力。

由英特尔贡献。

时间戳记:

更多来自 注册