Nvidia dezvăluie „H200” cu capabilități avansate de inteligență artificială

Nvidia dezvăluie „H200” cu capabilități avansate de inteligență artificială

Nvidia dezvăluie „H200” cu capabilități avansate de inteligență artificială PlatoBlockchain Data Intelligence. Căutare verticală. Ai.

Producătorul de cipuri Nvidia a introdus chipset-ul H200, care va crește performanța pentru modelele de limbaj mari (LLM) și va gestiona sisteme AI mai mari.

Noul cip este o actualizare semnificativă față de H100, cu viteză aproape dublă, precum și capabilități mai mari. Nvidia a indicat că cipul modernizat va începe să fie lansat în 2024.

Specificul

Noul cip îl înlocuiește pe actual H100 chipset cu upgrade-uri semnificative, în special memorie cu lățime de bandă mare, un element semnificativ care definește viteza de procesare a datelor.

H200 vine sub formă de memorie, devenind primul GPU să vină cu tehnologia HBM3e. Este încorporat cu 141 GB de memorie la 4.8 terabytes pe secundă, ceea ce este mult mai mare decât H100 cu o capacitate de 80 GB.

În conformitate cu Nvidia, un spațiu de memorie mai mare și elemente de procesare de mare viteză sunt menite să permită răspunsuri mai bune și mai rapide din partea serviciilor AI.

Nvidia nu a numit niciun furnizor de memorie pentru noul chipset, dar posibili concurenți, cum ar fi Micron Technology, ar fi furnizat memoria, potrivit Jagran englez.

Pe măsură ce cursa AI continuă, cipul H200 a fost conceput pentru a răspunde cererii mari de eficiență mai bună și capacități mai puternice.

Nume mari în curs

Microsoft Azure, infrastructura cloud Oracle, Google Cloud și Amazon Web Services alcătuiesc furnizorii inițiali de servicii cloud care vor oferi acces la cipul bazat pe H200 în al doilea trimestru al anului 2024. Acesta este în plus față de furnizorii de cloud de specialitate AI Lambda, CoreWeave , iar Vultr.

„Când te uiți la ceea ce se întâmplă pe piață, dimensiunile modelelor se extind rapid... Este un altul dintre noi care continuă să introducă rapid cea mai recentă și cea mai bună tehnologie”, Dion Harris, șeful de marketing de produse pentru centre de date la Nvidia, a fost citat spunând.

Potrivit producătorului de cipuri, noul H200 va duce la o „creștere a performanței care va include aproape dublarea vitezei de interferență pe Llama 2 de la Meta”.

De asemenea, se va citi: China International Import Expo prezintă dispozitive AI și Metaverse

Semnificatia

Noul H200 vine în mijloc restricții la export din SUA pe cipuri de ultimă generație, care ar putea avea un impact asupra gigantului producției de cipuri.

Se estimează că 20% până la 25% din veniturile din centrele de date ale Nvidia provin din China. Dar compania are a întrerupt noi comenzi de cipuri AI din economia asiatică și și-a redirecționat sistemele către alte piețe.

După anunțul chipset-ului H200, acțiunile Nvidia au crescut cu până la 1.5%, ajungând la 486 de dolari pe 13 noiembrie, ceea ce a fost cu 12 dolari mai puțin de maximul său istoric de 502 de dolari.

De la un an până în prezent, contorul a crescut cu peste 250%. Traiectoria de creștere a companiei a rămas, de asemenea, robustă și proiectează venituri de 16 miliarde de dolari pentru al treilea trimestru fiscal, care este de aproximativ o creștere de 170% față de anul precedent.

Nvidia controlează aproximativ 80% din piata globala pentru cipuri AI. Companii precum producătorul ChatGPT OpenAI și Stability AI se bazează foarte mult pe tehnologia Nvidia.

[Conținutul încorporat]

Timestamp-ul:

Mai mult de la MetaNews