Nvidiaのライバル関係が激化する中、GoogleとIntelが独自のAIチップを発売

Nvidiaのライバル関係が激化する中、GoogleとIntelが独自のAIチップを発売

ChatGPTやGeminiなどの生成AIモデルを駆動する先進的な半導体の製造競争が激化する中、GoogleとIntelは火曜日、Nvidiaに対抗する独自のAIチップを発売した。

でログイン Cloud TPU v5p をリリースし、Intel は Gaudi 3 AI プロセッサを発表しました。このチップは、AI システムのトレーニングと「完成したソフトウェアの実行」のパフォーマンスを向上させるように設計されています。

また、お読みください。 台湾地震で主要AIチップハブが混乱、世界供給が脅かされる

LLM のトレーニングをより迅速に行う

Googleは5月にGeminiとともに新しいTPU(テンソル処理ユニット)を初めて発表した。現在開発者が利用できるTPU vXNUMXpは、これまでで最も「強力でスケーラブルな」AIプロセッサであると同社は述べた。

同社は、アップデートされたチップが、AI チャットボットの背後にあるテクノロジーである大規模言語モデル (LLM) をトレーニングできると主張しています。 双子座 および AI言語モデルを活用してコードのデバッグからデータの異常検出まで、、以前の Google TPU v4 よりも 12 倍高速です。 AIチップは旧バージョンに比べてXNUMX倍のスループットを実現したという。

Google CEOのサンダー・ピチャイ氏はラスベガスで開催された社内イベントで、「(GoogleのTPUの)こうした進歩は第5世代となり、顧客が最先端の言語モデルをトレーニングし提供するのに役立っている」と述べた。 従った 業界メディアへ。

[埋め込まれたコンテンツ]

目的は、グラフィックス・プロセッシング・ユニット(GPU)として知られるAIチップの最大90%を供給する米国企業Nvidiaに挑戦することだが、Googleは依然としてNvidiaに依存していることを示した。

同じで ブログ投稿 最新のTPUを発表したGoogleは、A3スーパーコンピュータをアップグレードしていると発表した。 NVIDIA H100 グラフィックス処理ユニット。同社はまた、Nvidia の最新 GPU を使用していることも明らかにしました。 ブラックウェル、AI ハイパーコンピューター内。

Googleはまた、英国企業Armの技術を使用して構築されたデータセンター向けの新しいカスタム中央処理装置(CPU)であるAxionをリリースした。 Microsoft、Amazon、MetaのCPUに匹敵するAxionは、Google検索やAI操作などさまざまなタスクを処理できると同社は述べている。

Google によると、Axion は「今日クラウドで利用できる最速の汎用 Arm ベースのインスタンスよりも 30% 優れたパフォーマンス」を実現し、他の汎用 Arm よりも「最大 50% 優れたパフォーマンスと最大 60% 優れたエネルギー効率」を提供します。チップス。

インテル: どこでも AI

火曜日、Intel はまた、人工知能プロセッサの新バージョンである Gaudi 3 の発売を発表しました。同社によると、Gaudi 3 チップは Nvidia の H100 GPU の XNUMX 倍以上の電力効率があり、AI モデルを完全に実行できるとのことです。半分の速度になります。

「イノベーションは前例のないペースで進歩しており、すべてはシリコンによって実現されており、あらゆる企業が急速に AI 企業になりつつあります」と Intel CEO のパット・ゲルシンガー氏は記事で述べています。 ステートメント。 「インテルは、PC からデータセンター、エッジに至るまで、企業全体のあらゆる場所に AI を導入しています。

ゲルシンガー氏はGaudi 3の価格については明言しなかった、ブルームバーグ レポートしかし、同氏の会社のいわゆるアクセラレータチップは、Nvidiaの現在および将来のチップのコストを「大幅に下回る」だろうと述べた。これらは「非常に優れた」総所有コストをもたらすだろうと同氏は付け加えた。

Intel は、自社の最新チップが生成 AI に取り組む企業の AI トレーニングと推論において「大きな飛躍」をもたらすと主張しています。 AI システムをトレーニングする企業は、AI システムが実際の質問に応じて予測を行えるようにする必要があります。これは推論として知られています。

Intel によると、Gaudi 3 は、H100 や、Meta の Llama やアブダビの多言語 Falcon などの GPU を使用してトレーニングされたすべての大規模言語モデルよりも高速で電力効率が高いとのことです。このチップは、OpenAIのStable DiffusionやWhisperなどの音声認識モデルのトレーニングに役立つという。

同社によれば、この種のトレーニングでは、Gaudi 3 はソフトウェアの実行速度が 1.7 倍速く、ソフトウェアの実行能力が 1.5 倍優れているという。 Intelによれば、このAIチップの性能はNvidiaの新しいB200に匹敵し、ある分野では優れているが、他の分野では劣っているという。

Intelは、新しいGaudi 3チップは第XNUMX四半期に顧客に提供される予定で、Supermicro、Dell、HPなどの企業がAIアクセラレータを搭載したシステムを構築すると述べた。

Nvidiaへの挑戦

生成 AI システムを構築している企業は、高価な Nvidia の GPU への依存をやめてコストを削減しようとしています。

ソフトウェアエンジニアのジェームス・ハミルトン氏によると、アマゾンは2023年に65回のトレーニング実行に約1万ドルを費やしたという。同氏は、その額が間もなくXNUMX億ドルを超えると予想している。

1 週間前、OpenAI とマイクロソフト 明らかになった は、「スターゲート」と呼ばれる AI トレーニング用の 100 億ドルのデータセンターを建設する計画です。そして9月、Metaの最高経営責任者(CEO)Mark Zuckerberg氏は、同社がNvidia GPUだけでXNUMX億ドルを費やす計画だと述べた。

Nvidiaの競争が激化する中、GoogleとIntelが独自のAIチップを発売

すべての大手ハイテク企業は Nvidia からチップを購入していますが、自社でチップを製造したり、昨年 MI300X と呼ばれる新しいデータセンター GPU を導入した AMD から購入したりすることも始めています。 AMDは今年、さらに多くの人工知能チップをサーバー向けに拡大し、販売する予定だ。

Googleの競合企業であるMicrosoft、Meta(ともにAMDの顧客)、Amazonも独自のAIチップを開発している。しかし、それは簡単ではありません。今年初め、Nvidia は H100 の後継となる B200 GPU と B100 GPU をリリースし、パフォーマンスの向上を約束しました。チップの出荷は2024年後半に開始される予定だ。

AI ブームと H100 のおかげで倍増 Nvidiaの収益 そして市場評価額を2兆ドル以上に引き上げ、ウォール街で最も成功した企業のXNUMXつとなった。

タイムスタンプ:

より多くの メタニュース