Nvidia przedstawia „H200” z zaawansowanymi możliwościami AI

Nvidia przedstawia „H200” z zaawansowanymi możliwościami AI

Nvidia Unveils 'H200' with Advanced AI Capabilities PlatoBlockchain Data Intelligence. Vertical Search. Ai.

Producent chipów Nvidia wprowadził chipset H200, który zwiększy wydajność w przypadku dużych modeli językowych (LLM) i obsłuży większe systemy AI.

Nowy chip stanowi znaczące ulepszenie w stosunku do H100, oferując niemal dwukrotnie większą prędkość i większe możliwości. Nvidia wskazała, że ​​ulepszony układ zacznie być wprowadzany na rynek w 2024 roku.

Specyfika

Nowy chip zastępuje obecny H100 chipset ze znaczącymi ulepszeniami, zwłaszcza pamięcią o dużej przepustowości, istotnym elementem definiującym szybkość przetwarzania danych.

H200 jest dostępny w formie pamięci, stając się pierwszym procesorem graficznym będzie wyposażony w technologię HBM3e. Wbudowany jest w 141 GB pamięci o szybkości 4.8 terabajta na sekundę, czyli znacznie więcej niż w przypadku H100 o pojemności 80 GB.

Zgodnie z Nvidia, większa przestrzeń pamięci i szybkie elementy przetwarzające mają umożliwić lepsze i szybsze reakcje usług AI.

Nvidia nie podała żadnego dostawcy pamięci dla nowego chipsetu, ale według niej potencjalni konkurenci, tacy jak Micron Technology, mogli dostarczyć pamięć. Angielski Jagran.

W miarę trwania wyścigu sztucznej inteligencji chip H200 został zaprojektowany, aby sprostać dużemu zapotrzebowaniu na lepszą wydajność i większe możliwości.

W planach wielkie nazwiska

Microsoft Azure, infrastruktura chmurowa Oracle, Google Cloud i Amazon Web Services to pierwsi dostawcy usług w chmurze, którzy zaoferują dostęp do chipa opartego na H200 w drugim kwartale 2024 r. Jest to dodatek do specjalistycznych dostawców chmur AI Lambda, CoreWeave i Vultr.

„Kiedy spojrzeć na to, co dzieje się na rynku, rozmiary modeli szybko rosną… To już kolejny z nas, który stale szybko wprowadza najnowsze i najlepsze technologie” – Dion Harris, szefowa marketingu produktów dla centrów danych w firmie Nvidia, zostało zacytowane jako mówiąc.

Według producenta chipów nowy H200 doprowadzi do „wzrostu wydajności, który obejmie niemal podwojenie prędkości zakłóceń w Meta Llama 2”.

Przeczytaj także: China International Import Expo prezentuje urządzenia AI i Metaverse

Znaczenie

Wśród nich pojawia się nowy H200 Ograniczenia eksportowe USA na chipach z najwyższej półki, co może mieć wpływ na giganta produkującego chipy.

Szacuje się, że od 20% do 25% przychodów Nvidii z centrów danych pochodzi z Chin. Ale firma tak wstrzymał zamówienia na nowe chipy AI z gospodarki azjatyckiej i przekierował swoje systemy na inne rynki.

Po ogłoszeniu chipsetu H200 akcje Nvidii podskoczyły aż o 1.5%, osiągając 486 listopada poziom 13 dolarów, czyli o 12 dolarów mniej od rekordowej kwoty 502 dolarów.

W ujęciu rocznym licznik wzrósł o ponad 250%. Trajektoria wzrostu firmy również pozostaje solidna i przewiduje, że w trzecim kwartale finansowym, czyli około 16 miliardów dolarów, przychody wyniosą XNUMX miliardów dolarów. wzrost 170% w poprzednim roku.

Nvidia kontroluje około 80% oprogramowania rynek światowy dla chipów AI. Firmy takie jak twórca ChatGPT OpenAI i Stability AI w dużym stopniu polegają na technologii Nvidia.

[Osadzone treści]

Znak czasu:

Więcej z MetaWiadomości