チップメーカー Nvidia は、大規模言語モデル (LLM) のパフォーマンスを向上させ、より大規模な AI システムを処理できる H200 チップセットを導入しました。
新しいチップは H100 から大幅にアップグレードされ、ほぼ 2024 倍のパフォーマンス速度とより高い機能を備えています。 Nvidiaは、アップグレードされたチップがXNUMX年に展開を開始することを示唆しました。
詳細
新しいチップは現在のチップに取って代わります H100 大幅にアップグレードされたチップセット、特にデータ処理速度を決定する重要な要素である高帯域幅メモリ。
H200 はメモリの形で提供されます。 初のGPUとなる HBM3eテクノロジーが搭載されています。 毎秒 141 テラバイトの 4.8 GB のメモリが組み込まれており、これは H100 容量 80 GB.
による Nvidia、より大きなメモリ空間と高速処理要素は、AI サービスからのより優れたより高速な応答を可能にすることを目的としています。
Nvidiaは新しいチップセットのメモリサプライヤーを指名しなかったが、Micron Technologyなどの競合他社がメモリを提供した可能性があるとのことだ。 イングリッシュ・ジャグラン.
AI 競争が続く中、H200 チップは、より優れた効率とより強力な機能を求める高い需要に応えるように設計されました。
NVIDIA Hopper アーキテクチャに基づいた NVIDIA HGX H200 は、高度なメモリを備えた NVIDIA H200 Tensor コア GPU を備えており、生成 AI および #HPC ワークロード。 #SC23
— NVIDIA データセンター (@NVIDIADC) 2023 年 11 月 13 日
ビッグネームがパイプラインに登場
Microsoft Azure、Oracle クラウド インフラストラクチャ、Google Cloud、Amazon Web Services が最初のクラウド サービス プロバイダーを構成し、200 年の第 2024 四半期に HXNUMX ベースのチップへのアクセスを提供する予定です。これに、専門 AI クラウド プロバイダーである Lambda、CoreWeave が追加されます。 、ヴァルター。
「市場で何が起こっているかを見ると、モデルのサイズが急速に拡大しています…これは、私たちが最新かつ最高のテクノロジーを迅速に導入し続けていることでもあります。」と、データセンター製品マーケティング責任者のディオン・ハリスは述べています。 Nvidia、 と言って引用されました。
チップメーカーによると、新しい H200 は「Meta の Llama 2 の干渉速度をほぼ XNUMX 倍にするなど、パフォーマンスの向上」につながります。
また、お読みください。 中国国際輸入博覧会が AI とメタバース デバイスを展示
意義
新しい H200 は、 米国の輸出制限 ハイエンドチップに関しては、チップ製造大手に影響を与える可能性がある。
これは、Nvidia のデータセンター収益の 20% ~ 25% が中国から来ていると推定されているためです。 しかし、会社は、 AIチップの新規注文を一時停止 アジア経済からシステムを他の市場にリダイレクトしました。
H200チップセットの発表を受けて、NVIDIAの株価は1.5%も上昇し、486月13日には12ドルに達したが、これは過去最高値の502ドルにXNUMXドル及ばなかった。
年初来ベースで、カウンターは 250% 以上急増しました。 同社の成長軌道も引き続き堅調で、第 16 四半期の売上高は XNUMX 億ドルと予想されています。 170%の増加 前年よりも。
Nvidia が約 80% を管理 世界市場 AIチップ用。 ChatGPT メーカーの OpenAI や Stability AI などの企業は、Nvidia テクノロジーに大きく依存しています。
[埋め込まれたコンテンツ]
- SEO を活用したコンテンツと PR 配信。 今日増幅されます。
- PlatoData.Network 垂直生成 Ai。 自分自身に力を与えましょう。 こちらからアクセスしてください。
- プラトアイストリーム。 Web3 インテリジェンス。 知識増幅。 こちらからアクセスしてください。
- プラトンESG。 カーボン、 クリーンテック、 エネルギー、 環境、 太陽、 廃棄物管理。 こちらからアクセスしてください。
- プラトンヘルス。 バイオテクノロジーと臨床試験のインテリジェンス。 こちらからアクセスしてください。
- 情報源: https://metanews.com/nvidia-unveils-h200-with-advanced-ai-capabilities/
- :持っている
- :は
- :not
- $UP
- 1
- 10
- 13
- 2024
- 8
- 80
- 9
- a
- 私たちについて
- アクセス
- 従った
- 添加
- 住所
- 高度な
- AI
- AIサービス
- AIシステム
- ほとんど
- また
- Amazon
- Amazon Webサービス
- の中で
- 金額
- an
- および
- お知らせ
- 別の
- どれか
- 建築
- です
- AS
- アジアン
- At
- Azure
- 基礎
- より良いです
- より大きい
- 10億
- ブースト
- 焙煎が極度に未発達や過発達のコーヒーにて、クロロゲン酸の味わいへの影響は強くなり、金属を思わせる味わいと乾いたマウスフィールを感じさせます。
- by
- 機能
- センター
- AI言語モデルを活用してコードのデバッグからデータの異常検出まで、
- 中国
- チップ
- チップ
- クラウド
- クラウドインフラ
- 来ます
- comes
- 企業
- 会社
- 会社の
- 競合他社
- コンテンツ
- 続ける
- 連続
- controls
- 基本
- 可能性
- カウンター
- 電流プローブ
- データ
- データセンター
- データ処理
- 定義する
- 需要
- 設計
- DID
- 倍増し
- 経済
- 効率
- 素子
- 要素は
- 埋め込まれた
- enable
- 特に
- 推定
- 展覧会
- export
- 速いです
- 特徴
- 名
- 年度
- フォーム
- から
- 生々しい
- 生成AI
- 巨大な
- でログイン
- Googleクラウド
- GPU
- 大きい
- 最大
- 成長性
- ハンドル
- 出来事
- 持ってる
- 重く
- ハイ
- ハイエンド
- より高い
- HTML
- HTTPS
- 影響
- import
- in
- include
- 示された
- インフラ関連事業
- 初期
- 干渉
- 世界全体
- 紹介する
- 導入
- IT
- ITS
- ジャンプした
- 言語
- 大
- 最新の
- つながる
- ような
- ラマ
- 見て
- make
- メーカー
- 市場
- マーケティング
- マーケット
- 大規模な
- 五月..
- 意味した
- メモリ
- メタバース
- ミクロン
- モデル
- ずっと
- 名
- 名
- 新作
- 新しいチップ
- 11月
- Nvidia
- of
- 提供
- on
- OpenAI
- オラクル
- その他
- でる
- が
- 以下のために
- パフォーマンス
- プラトン
- プラトンデータインテリジェンス
- プラトデータ
- 可能
- 前
- 処理
- プロダクト
- プロジェクト(実績作品)
- 提供
- プロバイダ
- 四半期
- レース
- 急速に
- 到達
- 読む
- 頼る
- 残った
- 回答
- 収入
- 堅牢な
- 圧延
- 格言
- 二番
- 第2四半期
- サービス
- サービスプロバイダ
- サービス
- 株式
- 内気な
- 重要
- サイズ
- スペース
- 特別
- 専門
- スピード
- 安定性
- start
- 強い
- そのような
- サプライヤー
- 素早く
- システム
- テクノロジー
- より
- それ
- 三番
- この
- 〜へ
- 軌跡
- true
- 発表
- アップグレード
- アップグレード
- アップグレード
- us
- ました
- ウェブ
- Webサービス
- WELL
- which
- 誰
- 意志
- 年
- You
- ユーチューブ
- ゼファーネット