Nvidia onthult 'H200' met geavanceerde AI-mogelijkheden

Nvidia onthult 'H200' met geavanceerde AI-mogelijkheden

Nvidia onthult 'H200' met geavanceerde AI-mogelijkheden PlatoBlockchain Data Intelligence. Verticaal zoeken. Ai.

Chipmaker Nvidia heeft de H200-chipset geïntroduceerd, die de prestaties voor grote taalmodellen (LLM's) zal verbeteren en grotere AI-systemen zal kunnen verwerken.

De nieuwe chip is een aanzienlijke upgrade ten opzichte van de H100, met bijna dubbele prestatiesnelheid en hogere mogelijkheden. Nvidia heeft aangegeven dat de geüpgradede chip in 2024 zal worden uitgerold.

De details

De nieuwe chip vervangt de huidige H100 chipset met aanzienlijke upgrades, vooral geheugen met hoge bandbreedte, een belangrijk element dat de snelheid van gegevensverwerking definieert.

De H200 wordt geleverd in de vorm van geheugen, de eerste GPU worden te komen met HBM3e-technologie. Het is ingebed met 141 GB geheugen met een snelheid van 4.8 terabytes per seconde, wat veel groter is dan de H100 met 80 GB capaciteit.

Think Nvidia, een grotere geheugenruimte en snelle verwerkingselementen zijn bedoeld om betere en snellere reacties van AI-diensten mogelijk te maken.

Nvidia heeft geen geheugenleverancier genoemd voor de nieuwe chipset, maar mogelijke concurrenten zoals Micron Technology hebben mogelijk het geheugen geleverd, aldus Engels Jagran.

Naarmate de AI-race voortduurde, werd de H200-chip ontworpen om tegemoet te komen aan de grote vraag naar betere efficiëntie en sterkere mogelijkheden.

Grote namen in de pijplijn

Microsoft Azure, Oracle cloudinfrastructuur, Google Cloud en Amazon Web Services vormen de eerste cloudserviceproviders die in het tweede kwartaal van 200 toegang zullen bieden tot de op H2024 gebaseerde chip. Dit is een aanvulling op de gespecialiseerde AI-cloudproviders Lambda, CoreWeave , en Vultr.

"Als je kijkt naar wat er op de markt gebeurt, nemen de modelgroottes snel toe... Het is weer een van ons die snel de nieuwste en beste technologie blijft introduceren", zegt Dion Harris, hoofd datacenterproductmarketing bij Nvidia, werd geciteerd zoals zeggend.

Volgens de chipmaker zal de nieuwe H200 leiden tot een “prestatieverbetering die een bijna verdubbeling van de interferentiesnelheid op Meta’s Llama 2 omvat.”

Lees ook: China International Import Expo toont AI- en Metaverse-apparaten

De betekenis

De nieuwe H200 komt er middenin Amerikaanse exportbeperkingen op high-end chips, wat een impact zou kunnen hebben op de chipfabrikant.

Dit komt omdat naar schatting 20% ​​tot 25% van de datacenterinkomsten van Nvidia uit China komt. Maar het bedrijf heeft dat wel gedaan heeft nieuwe AI-chipbestellingen gepauzeerd van de Aziatische economie en verlegde zijn systemen naar andere markten.

Na de aankondiging van de H200-chipset stegen de aandelen van Nvidia met maar liefst 1.5% en bereikten op 486 november $13, wat $12 lager was dan het hoogste punt ooit van $502.

Op jaarbasis is de teller met ruim 250% gestegen. Het groeitraject van het bedrijf is ook robuust gebleven en verwacht een omzet van 16 miljard dollar voor het fiscale derde kwartaal, dat ongeveer een toename van 170% in het voorgaande jaar.

Nvidia beheert ongeveer 80% van de wereldmarkt voor AI-chips. Bedrijven als ChatGPT-maker OpenAI en Stability AI zijn sterk afhankelijk van Nvidia-technologie.

[Ingesloten inhoud]

Tijdstempel:

Meer van MetaNieuws