Le fabricant de puces Nvidia a présenté le chipset H200, qui améliorera les performances des grands modèles de langage (LLM) et gérera les systèmes d'IA plus gros.
La nouvelle puce constitue une mise à niveau significative par rapport au H100, avec une vitesse presque doublée ainsi que des capacités plus élevées. Nvidia a indiqué que la puce mise à niveau commencerait à être déployée en 2024.
Les spécificités
La nouvelle puce remplace l'actuelle H100 chipset avec des mises à niveau significatives, en particulier une mémoire à large bande passante, un élément important qui définit la vitesse de traitement des données.
Le H200 se présente sous forme de mémoire, devenant le premier GPU à venir avec la technologie HBM3e. Il intègre 141 Go de mémoire à 4.8 téraoctets par seconde, ce qui est bien supérieur à la H100 avec 80 Go de capacité.
Selon Nvidia, un espace mémoire plus grand et des éléments de traitement à grande vitesse sont destinés à permettre des réponses meilleures et plus rapides des services d'IA.
Nvidia n'a nommé aucun fournisseur de mémoire pour le nouveau chipset, mais d'éventuels concurrents tels que Micron Technology pourraient avoir fourni la mémoire, selon anglaisJagran.
Alors que la course à l’IA se poursuit, la puce H200 a été conçue pour répondre à la forte demande d’une meilleure efficacité et de capacités plus puissantes.
Basé sur l'architecture NVIDIA Hopper, le NVIDIA HGX H200 est doté du GPU NVIDIA H200 Tensor Core avec une mémoire avancée pour gérer d'énormes quantités de données pour l'IA générative et #HPC charges de travail. #SC23
– Centre de données NVIDIA (@NVIDIADC) 13 novembre 2023
De grands noms en préparation
Microsoft Azure, Oracle cloud infrastructure, Google Cloud et Amazon Web Services constituent les premiers fournisseurs de services cloud qui offriront l'accès à la puce basée sur H200 au deuxième trimestre 2024. À cela s'ajoutent les fournisseurs cloud spécialisés en IA Lambda, CoreWeave. , et Vultr.
"Quand vous regardez ce qui se passe sur le marché, la taille des modèles augmente rapidement... C'est une autre de nos actions qui continuent d'introduire rapidement les technologies les plus récentes et les plus performantes", Dion Harris, responsable du marketing des produits pour centres de données chez Nvidia, a été cité comme disant.
Selon le fabricant de puces, le nouveau H200 entraînera « une amélioration des performances qui inclura presque le doublement de la vitesse d'interférence sur le Llama 2 de Meta ».
A lire également: L'exposition internationale d'importation de Chine présente les appareils d'IA et de métaverse
L'importance
Le nouveau H200 arrive au milieu Restrictions américaines à l'exportation sur les puces haut de gamme, ce qui pourrait avoir un impact sur le géant de la fabrication de puces.
Cela vient du fait qu'on estime que 20 à 25 % des revenus des centres de données de Nvidia proviennent de Chine. Mais l'entreprise a a suspendu les nouvelles commandes de puces IA de l’économie asiatique et a réorienté ses systèmes vers d’autres marchés.
Suite à l'annonce du chipset H200, les actions de Nvidia ont bondi de 1.5 %, atteignant 486 dollars le 13 novembre, soit 12 dollars de moins que leur sommet historique de 502 dollars.
Depuis le début de l'année, le compteur a bondi de plus de 250 %. La trajectoire de croissance de l'entreprise est également restée robuste et elle prévoit un chiffre d'affaires de 16 milliards de dollars pour son troisième trimestre fiscal, soit environ une augmentation de 170% par rapport à l’année précédente.
Nvidia contrôle environ 80 % du marché global pour les puces IA. Des entreprises comme le fabricant de ChatGPT, OpenAI et Stability AI, s'appuient fortement sur la technologie Nvidia.
[Contenu intégré]
- Contenu propulsé par le référencement et distribution de relations publiques. Soyez amplifié aujourd'hui.
- PlatoData.Network Ai générative verticale. Autonomisez-vous. Accéder ici.
- PlatoAiStream. Intelligence Web3. Connaissance Amplifiée. Accéder ici.
- PlatonESG. Carbone, Technologie propre, Énergie, Environnement, Solaire, La gestion des déchets. Accéder ici.
- PlatoHealth. Veille biotechnologique et essais cliniques. Accéder ici.
- La source: https://metanews.com/nvidia-unveils-h200-with-advanced-ai-capabilities/
- :possède
- :est
- :ne pas
- $UP
- 1
- 10
- 13
- 2024
- 8
- 80
- 9
- a
- A Propos
- accès
- Selon
- ajout
- propos
- Avancée
- AI
- Services d'IA
- Systèmes d'IA
- presque
- aussi
- Amazon
- Amazon Web Services
- Au milieu de
- quantités
- an
- et les
- NOUVEAUTÉ!
- Une autre
- tous
- architecture
- SONT
- AS
- asiatique
- At
- Azure
- base
- Améliorée
- plus gros
- Milliards
- renforcer
- mais
- by
- capacités
- Canaux centraux
- ChatGPT
- Chine
- puce
- chips
- le cloud
- infrastructure de cloud
- comment
- vient
- Sociétés
- Société
- De l'entreprise
- concurrents
- contenu
- continue
- continue
- contrôles
- Core
- pourriez
- Counter
- Courant
- données
- Centre de données
- informatique
- Définit
- Demande
- un
- DID
- doubler
- économie
- efficace
- élément
- éléments
- intégré
- permettre
- notamment
- estimé
- Exposition
- Exporter
- plus rapide
- Fonctionnalités:
- Prénom
- Fiscal
- Pour
- formulaire
- De
- génératif
- IA générative
- géant
- Google Cloud
- GPU
- plus grand
- plus
- Croissance
- manipuler
- EN COURS
- Vous avez
- front
- fortement
- Haute
- Haut de gamme
- augmentation
- HTML
- HTTPS
- Impact
- importer
- in
- comprendre
- indiqué
- Infrastructure
- initiale
- Interférence
- International
- introduire
- introduit
- IT
- SES
- Sauté
- langue
- gros
- Nouveautés
- conduire
- comme
- Flamme
- Style
- a prendre une
- fabricant
- Marché
- Stratégie
- Marchés
- massif
- Mai..
- signifiait
- Mémoire
- Métaverse
- micron
- modèle
- numériques jumeaux (digital twin models)
- beaucoup
- prénom
- noms
- Nouveauté
- nouvelle puce
- nov
- Nvidia
- of
- code
- on
- OpenAI
- oracle
- Autre
- ande
- plus de
- /
- performant
- Platon
- Intelligence des données Platon
- PlatonDonnées
- possible
- précédent
- traitement
- Produit
- projets
- à condition de
- fournisseurs
- Trimestre
- Race
- rapidement
- atteindre
- Lire
- compter
- resté
- réponses
- de revenus
- robuste
- Roulant
- dire
- Deuxièmement
- deuxième quartier
- service
- les fournisseurs de services
- Services
- Partages
- timide
- significative
- tailles
- Space
- spécial
- Hébergement spécial
- vitesse
- Stabilité
- Commencer
- plus efficacement
- tel
- fournisseur
- rapidement
- Système
- Technologie
- que
- qui
- Le
- Troisièmement
- this
- à
- trajectoire
- oui
- Dévoile
- améliorer
- mis à jour
- mises à jour
- us
- était
- web
- services Web
- WELL
- qui
- WHO
- sera
- comprenant
- an
- Vous n'avez
- Youtube
- zéphyrnet