Nvidia dévoile le « H200 » doté de capacités avancées d'IA

Nvidia dévoile le « H200 » doté de capacités avancées d'IA

Nvidia dévoile le « H200 » doté de capacités avancées d'IA PlatoBlockchain Data Intelligence. Recherche verticale. Aï.

Le fabricant de puces Nvidia a présenté le chipset H200, qui améliorera les performances des grands modèles de langage (LLM) et gérera les systèmes d'IA plus gros.

La nouvelle puce constitue une mise à niveau significative par rapport au H100, avec une vitesse presque doublée ainsi que des capacités plus élevées. Nvidia a indiqué que la puce mise à niveau commencerait à être déployée en 2024.

Les spécificités

La nouvelle puce remplace l'actuelle H100 chipset avec des mises à niveau significatives, en particulier une mémoire à large bande passante, un élément important qui définit la vitesse de traitement des données.

Le H200 se présente sous forme de mémoire, devenant le premier GPU à venir avec la technologie HBM3e. Il intègre 141 Go de mémoire à 4.8 téraoctets par seconde, ce qui est bien supérieur à la H100 avec 80 Go de capacité.

Selon Nvidia, un espace mémoire plus grand et des éléments de traitement à grande vitesse sont destinés à permettre des réponses meilleures et plus rapides des services d'IA.

Nvidia n'a nommé aucun fournisseur de mémoire pour le nouveau chipset, mais d'éventuels concurrents tels que Micron Technology pourraient avoir fourni la mémoire, selon anglaisJagran.

Alors que la course à l’IA se poursuit, la puce H200 a été conçue pour répondre à la forte demande d’une meilleure efficacité et de capacités plus puissantes.

De grands noms en préparation

Microsoft Azure, Oracle cloud infrastructure, Google Cloud et Amazon Web Services constituent les premiers fournisseurs de services cloud qui offriront l'accès à la puce basée sur H200 au deuxième trimestre 2024. À cela s'ajoutent les fournisseurs cloud spécialisés en IA Lambda, CoreWeave. , et Vultr.

"Quand vous regardez ce qui se passe sur le marché, la taille des modèles augmente rapidement... C'est une autre de nos actions qui continuent d'introduire rapidement les technologies les plus récentes et les plus performantes", Dion Harris, responsable du marketing des produits pour centres de données chez Nvidia, a été cité comme disant.

Selon le fabricant de puces, le nouveau H200 entraînera « une amélioration des performances qui inclura presque le doublement de la vitesse d'interférence sur le Llama 2 de Meta ».

A lire également: L'exposition internationale d'importation de Chine présente les appareils d'IA et de métaverse

L'importance

Le nouveau H200 arrive au milieu Restrictions américaines à l'exportation sur les puces haut de gamme, ce qui pourrait avoir un impact sur le géant de la fabrication de puces.

Cela vient du fait qu'on estime que 20 à 25 % des revenus des centres de données de Nvidia proviennent de Chine. Mais l'entreprise a a suspendu les nouvelles commandes de puces IA de l’économie asiatique et a réorienté ses systèmes vers d’autres marchés.

Suite à l'annonce du chipset H200, les actions de Nvidia ont bondi de 1.5 %, atteignant 486 dollars le 13 novembre, soit 12 dollars de moins que leur sommet historique de 502 dollars.

Depuis le début de l'année, le compteur a bondi de plus de 250 %. La trajectoire de croissance de l'entreprise est également restée robuste et elle prévoit un chiffre d'affaires de 16 milliards de dollars pour son troisième trimestre fiscal, soit environ une augmentation de 170% par rapport à l’année précédente.

Nvidia contrôle environ 80 % du marché global pour les puces IA. Des entreprises comme le fabricant de ChatGPT, OpenAI et Stability AI, s'appuient fortement sur la technologie Nvidia.

[Contenu intégré]

Horodatage:

Plus de MétaActualités