Nvidia właśnie dokonała zabójstwa w dziedzinie sztucznej inteligencji – gdzie są wszyscy inni?

Nvidia właśnie dokonała zabójstwa w dziedzinie sztucznej inteligencji – gdzie są wszyscy inni?

Nvidia właśnie dokonała zabójstwa w dziedzinie sztucznej inteligencji – gdzie są wszyscy inni? Inteligencja danych PlatoBlockchain. Wyszukiwanie pionowe. AI.

Komentarz Ostatni kwartał Nvidii był decydującym momentem dla przyjęcia sztucznej inteligencji.

Popyt na procesory graficzne technologicznego tytana spowodował jego przychody nowe szczyty, podczas gdy przedsiębiorstwa, dostawcy usług w chmurze i podmioty hiperskalowalne starały się zachować aktualność w ramach nowego porządku świata opartego na sztucznej inteligencji. 

Choć dyrektorzy Nvidii spodziewają się wygenerować wielomiliardowe zyski z tego popytu w ciągu najbliższych kilku kwartałów, wiele osób zadaje sobie pytanie, czy Nvidia i jej partnerzy rzeczywiście będą w stanie zbudować wystarczającą liczbę procesorów graficznych, aby zaspokoić popyt, i co się stanie, jeśli nie będzie to możliwe.

Podczas rozmowy z analitykami finansowymi, dyrektor finansowa Nvidii, Colette Kress zapewniony Wall Street, że gigant procesorów graficznych ściśle współpracował z partnerami, aby skrócić czas cykli i zwiększyć wydajność dostaw. Nalegany na podanie szczegółów Kress wielokrotnie unikał odpowiedzi na to pytanie, argumentując, że w sprzęt Nv zaangażowanych jest tak wielu dostawców, że trudno powiedzieć, jaką moc będą w stanie wykorzystać i kiedy.

Czasy finansowe raportTymczasem zasugerowała, że ​​Nvidia planuje co najmniej potroić produkcję swojego najwyższej klasy akceleratora H100 w 2024 r. do 1.5–2 milionów sztuk, w porównaniu z około pół miliona w tym roku. Chociaż jest to świetna wiadomość dla wyników finansowych Nvidii, jeśli jest prawdziwa, niektóre firmy nie czekają, aż Nvidia nadrobi zaległości, i zamiast tego szukają alternatywnych architektur.

Niezaspokojony popyt rodzi szansę

Jednym z najbardziej przekonujących przykładów jest chmura G42 w Zjednoczonych Emiratach Arabskich, która Tapped Cerebras Systems zbuduje dziewięć superkomputerów AI zdolnych łącznie uzyskać 36 eksaflopów rzadkiej wydajności FP16 za jedyne 100 milionów dolarów za sztukę.

Cerebrasa akceleratory znacznie różnią się od procesorów graficznych obsługujących systemy HGX i DGX firmy Nvidia. Zamiast pakować cztery lub osiem procesorów graficznych w obudowę do montażu w stojaku, akceleratory Cerebry to ogromne arkusze krzemu wielkości talerza obiadowego, zawierające 850,000 40 rdzeni i 16 GB pamięci SRAM. Producent chipów twierdzi, że do osiągnięcia 1 exaflopa rzadkiej wydajności FP16 potrzeba zaledwie 500 takich akceleratorów, co według naszych szacunków wymagałoby ponad 100 procesorów Nvidia HXNUMX.

A dla innych, którzy chcą wyruszyć poza otoczony murem ogród Nvidii, nie brakuje alternatyw. Ostatnio słyszeliśmy, że Amazon za pomocą Akceleratory szkoleniowe Intel Gaudi AI, które mają stanowić uzupełnienie własnych, niestandardowych chipów Trainium – choć nie jest jasne, w jakich ilościach.

W porównaniu do A100 firmy Nvidia, procesory Intel Gaudi2, które uruchomiona w maju ubiegłego roku zapewniał mniej więcej dwukrotnie większą wydajność, przynajmniej w modelu klasyfikacji obrazów ResNet-50 i modelach przetwarzania języka naturalnego BERT. A dla tych w Chinach, Intel niedawno wprowadzono okrojona wersja chipa do sprzedaży w regionie. Oczekuje się, że Intel wprowadzi na rynek jeszcze mocniejszą wersję procesora, jak można się spodziewać, nazwaną Gaudi3, która będzie konkurować z procesorem H100 obecnej generacji Nvidii w przyszłym roku.

Jest też oczywiście firma AMD, która po niedawnej serii głośnych zwycięstw w obszarze superkomputerów skupiła swoją uwagę na rynku sztucznej inteligencji.

Podczas czerwcowego wydarzenia poświęconego centrum danych i sztucznej inteligencji firma AMD szczegółowe Instinct MI300X, którego sprzedaż ma rozpocząć się pod koniec roku. Akcelerator zawiera 192 GB szybkiej pamięci HBM3 i osiem układów graficznych CDNA 3 w jednym pakiecie.

Nasza siostrzana strona Następna platforma Szacunki chip zapewni około 3 petaflopy wydajności 8PR. Podczas gdy pod względem wydajności stanowi 75 procent H100 firmy Nvidia, MI300X oferuje 2.4 razy większą pojemność pamięci, co może pozwolić klientom uniknąć konieczności używania mniejszej liczby procesorów graficznych do trenowania swoich modeli.

Perspektywa procesora graficznego, który nie tylko może zapewnić imponującą wydajność, ale który Ty możesz faktycznie kup, najwyraźniej wzbudził pewne zainteresowanie. Podczas rozmowy telefonicznej dotyczącej wyników AMD za drugi kwartał, dyrektor generalna Lisa Su chwalił się że w ciągu kwartału zaangażowanie firmy w sztuczną inteligencję wzrosło siedmiokrotnie. „Spodziewamy się, że w samym centrum danych rynek akceleratorów sztucznej inteligencji osiągnie do 150 r. ponad 2027 miliardów dolarów” – powiedziała.

Bariery w adopcji

Jeśli więc Nvidia uważa, że ​​w tej chwili zaspokaja jedynie jedną trzecią zapotrzebowania na krzem zorientowany na sztuczną inteligencję, dlaczego jej rywale nie starają się wypełnić luki i nie zarobić na szumie?

Najbardziej oczywistą kwestią jest kwestia czasu. Ani AMD, ani Intel nie będą miały akceleratorów zdolnych rzucić wyzwanie H100 Nvidii, przynajmniej pod względem wydajności, gotowych na miesiące. Jednak nawet po tym klienci nadal będą musieli zmagać się z mniej dojrzałym oprogramowaniem.

Do tego dochodzi fakt, że rywale Nvidii będą walczyć o te same dostawy i moce produkcyjne, które Nv chce zabezpieczyć lub już zabezpieczyła. Na przykład AMD polega na TSMC, tak jak Nvidia robi to w przypadku produkcji chipów. Choć zapotrzebowanie na półprzewodniki jest w kryzysie Ponieważ ostatnio mniej osób jest zainteresowanych podłączaniem komputerów stacjonarnych, telefonów i tym podobnych, istnieje znaczne zapotrzebowanie na akceleratory serwerów do uczenia modeli i zasilania aplikacji do uczenia maszynowego.

Wróćmy jednak do kodu: zgrany ekosystem sprzętu i oprogramowania Nvidii istnieje już od lat. W rezultacie istnieje dużo kodu, w tym wiele najpopularniejszych modeli sztucznej inteligencji, zoptymalizowanych pod kątem dominującej w branży platformy CUDA firmy Nv.

Nie oznacza to, że konkurencyjne domy chipowe nie próbują zmienić tej dynamiki. Intel OneAPI zawiera narzędzia pomagające użytkownikom konwertować kod napisany dla CUDA firmy Nvidia do SYCL, który można następnie uruchomić na zestawie platform AI firmy Intel. Podobne wysiłki podjęto, aby przekonwertować obciążenia CUDA do działania na procesorach graficznych z rodziny Instinct firmy AMD przy użyciu interfejsu API HIP.

Wielu z tych samych producentów chipów zwraca się również o pomoc do firm takich jak Hugging Face, która opracowuje narzędzia do tworzenia aplikacji ML, aby zmniejszyć barierę w uruchamianiu popularnych modeli na ich sprzęcie. Te inwestycje niedawno doprowadziło wycenę Hugging do ponad 4 miliardów dolarów.

Inne firmy produkujące chipy, takie jak Cerebras, postanowiły ominąć ten konkretny problem, opracowując niestandardowe modele sztucznej inteligencji dla swojego sprzętu, z których klienci mogą korzystać, zamiast zaczynać od zera. W marcu, Cerebras ogłosił Cerebras-GPT, zbiór siedmiu LLM o wielkości od 111 milionów do 13 miliardów parametrów.

W przypadku klientów o bardziej technicznym poziomie, dysponujących zasobami, które mogą przeznaczyć na opracowywanie, optymalizację lub przenoszenie starszego kodu na nowsze, mniej dojrzałe architektury, wybranie alternatywnej platformy sprzętowej może być warte potencjalnych oszczędności lub skrócenia czasu realizacji. Zarówno Google, jak i Amazon poszły już tą drogą, odpowiednio, ze swoimi akceleratorami TPU i Trainium.

Jednak dla tych, którym brakuje tych zasobów, korzystanie z infrastruktury bez sprawdzonego stosu oprogramowania – niezależnie od tego, jak bardzo jest ona wydajna – może być postrzegane jako obciążenie. W takim przypadku Nvidia prawdopodobnie pozostanie bezpiecznym wyborem. ®

Znak czasu:

Więcej z Rejestr