Nvidia、高度な AI 機能を備えた「H200」を発表

Nvidia、高度な AI 機能を備えた「H200」を発表

Nvidia、高度な AI 機能 PlatoBlockchain データ インテリジェンスを備えた「H200」を発表。垂直検索。あい。

チップメーカー Nvidia は、大規模言語モデル (LLM) のパフォーマンスを向上させ、より大規模な AI システムを処理できる H200 チップセットを導入しました。

新しいチップは H100 から大幅にアップグレードされ、ほぼ 2024 倍のパフォーマンス速度とより高い機能を備えています。 Nvidiaは、アップグレードされたチップがXNUMX年に展開を開始することを示唆しました。

詳細

新しいチップは現在のチップに取って代わります H100 大幅にアップグレードされたチップセット、特にデータ処理速度を決定する重要な要素である高帯域幅メモリ。

H200 はメモリの形で提供されます。 初のGPUとなる HBM3eテクノロジーが搭載されています。 毎秒 141 テラバイトの 4.8 GB のメモリが組み込まれており、これは H100 容量 80 GB.

による Nvidia、より大きなメモリ空間と高速処理要素は、AI サービスからのより優れたより高速な応答を可能にすることを目的としています。

Nvidiaは新しいチップセットのメモリサプライヤーを指名しなかったが、Micron Technologyなどの競合他社がメモリを提供した可能性があるとのことだ。 イングリッシュ・ジャグラン.

AI 競争が続く中、H200 チップは、より優れた効率とより強力な機能を求める高い需要に応えるように設計されました。

ビッグネームがパイプラインに登場

Microsoft Azure、Oracle クラウド インフラストラクチャ、Google Cloud、Amazon Web Services が最初のクラウド サービス プロバイダーを構成し、200 年の第 2024 四半期に HXNUMX ベースのチップへのアクセスを提供する予定です。これに、専門 AI クラウド プロバイダーである Lambda、CoreWeave が追加されます。 、ヴァルター。

「市場で何が起こっているかを見ると、モデルのサイズが急速に拡大しています…これは、私たちが最新かつ最高のテクノロジーを迅速に導入し続けていることでもあります。」と、データセンター製品マーケティング責任者のディオン・ハリスは述べています。 Nvidia、 と言って引用されました。

チップメーカーによると、新しい H200 は「Meta の Llama 2 の干渉速度をほぼ XNUMX 倍にするなど、パフォーマンスの向上」につながります。

また、お読みください。 中国国際輸入博覧会が AI とメタバース デバイスを展示

意義

新しい H200 は、 米国の輸出制限 ハイエンドチップに関しては、チップ製造大手に影響を与える可能性がある。

これは、Nvidia のデータセンター収益の 20% ~ 25% が中国から来ていると推定されているためです。 しかし、会社は、 AIチップの新規注文を一時停止 アジア経済からシステムを他の市場にリダイレクトしました。

H200チップセットの発表を受けて、NVIDIAの株価は1.5%も上昇し、486月13日には12ドルに達したが、これは過去最高値の502ドルにXNUMXドル及ばなかった。

年初来ベースで、カウンターは 250% 以上急増しました。 同社の成長軌道も引き続き堅調で、第 16 四半期の売上高は XNUMX 億ドルと予想されています。 170%の増加 前年よりも。

Nvidia が約 80% を管理 世界市場 AIチップ用。 ChatGPT メーカーの OpenAI や Stability AI などの企業は、Nvidia テクノロジーに大きく依存しています。

[埋め込まれたコンテンツ]

タイムスタンプ:

より多くの メタニュース