Meta 推出 AI 图像分割模型 SAM

Meta 推出 AI 图像分割模型 SAM

Meta 推出 AI 图像分割模型、SAM PlatoBlockchain 数据智能。垂直搜索。人工智能。

字母公司 谷歌 已经分享了有关它用于训练 AI 模型的超级计算机的信息,声称它们比 英伟达的 A100芯片。 谷歌已经生产了名为 Tensor Processing Unit (TPU) 的定制芯片,这是第四代。

据这家科技巨头称,该公司 90% 以上的 AI 培训工作都使用这些芯片。 谷歌通过模型添加芯片馈送数据,使它们在诸如人类文本或生成图像等任务中变得实用。

理想的情况下, TPU 的设计 加速深度神经网络 (DNN) 的推理阶段,深度神经网络用于许多机器学习应用,例如图像识别、语音识别、自然语言处理等。 TPU 也用于训练 DNN。

也可以参考: 德国威胁罚款,推特陷入法律困境

周二谷歌 发表了一篇科学论文 解释它是如何串起 4 多个筹码的。 据该公司称,它使用定制开发的光开关将单独的机器放在一个地方。

谷歌在科学论文中表示,对于同等大小的系统,其芯片比基于与第四代 TPU 同时上市的 Nvidia A1.7 芯片的系统快 1.9 倍,能效高 100 倍。

需要更多改进

分析师认为,随着企业投入,数据推理芯片市场将快速增长 AI技术 到他们的产品中。 然而,像谷歌这样的公司已经在研究如何限制这样做会增加的额外成本,其中一项成本就是电费。

驱动产品的大型语言模型,例如 谷歌的 Bard 或 OpenAI 的 ChatGPT 已经大大增加了规模。 事实上,它们太大了,无法存储在单个芯片上。

因此,改善这些连接已成为构建 AI 超级计算机的公司之间竞争的关键点。

此外,这些模型分布在数千个芯片上,并协同工作数周或更长时间来训练模型。

谷歌迄今为止公开披露的最重要的语言模型 PaLM 是通过在 4 台芯片超级计算机中的两台上进行训练,历时 000 天。

据该公司称,其超级计算机可以轻松地动态配置芯片之间的连接。

“电路切换使得绕过故障组件变得容易,”谷歌研究员 Norm Jouppi 和谷歌杰出工程师大卫帕特森在关于该系统的博客文章中说

“这种灵活性甚至允许我们改变超级计算机互连的拓扑结构,以加速 ML(机器学习)模型的性能。”

根据谷歌没有比较

Nvidia 在使用大量数据训练 AI 模型方面占据主导地位。 然而,在训练这些模型之后,它们会被更广泛地用于所谓的“推理”,通过执行生成对提示的文本响应和确定图像是否包含猫等任务。

主要软件 工作室目前正在使用 Nvidia 的 A100 处理器。 A100 芯片是开发工作室用于 AI 机器学习工作负载的最常用芯片。

A100适合 对于支持 ChatGPT 等工具的机器学习模型, 必应爱,或稳定扩散。 它能够同时执行许多简单的计算,这对于训练和使用神经网络模型很重要。

虽然 Nvidia 拒绝了评论请求 路透社,谷歌表示他们没有将他们的第四代与 Nvidia 目前的旗舰 H100 芯片进行比较,因为它在谷歌芯片之后进入市场,并且采用更新的技术制造。

谷歌还表示,该公司拥有“健康的未来提示管道”,但没有提供更详细的细节,但暗示它可能正在开发一种将与 Nvidia H100 竞争的新 TPU。

尽管谷歌现在只公布其超级计算机的详细信息,但自 2020 年以来,它一直在公司内部位于俄克拉荷马州梅斯县的数据中心上线。

谷歌表示,初创公司 Midjourney 使用该系统训练其模型,该模型在输入几句文字后生成新图像。

时间戳记:

更多来自 元新闻