Intel wypycha zestawy referencyjne AI, aby pomóc w sprzedaży swojego krzemu

Intel wypycha zestawy referencyjne AI, aby pomóc w sprzedaży swojego krzemu

Intel promuje zestawy referencyjne AI, aby pomóc w sprzedaży krzemowej inteligencji danych PlatoBlockchain. Wyszukiwanie pionowe. AI.

Aby zachęcić techników i inżynierów do wypróbowania sprzętu do akceleracji sztucznej inteligencji, Intel przygotował szereg zestawów referencyjnych oprogramowania, które według niego skrócą czas i zasoby potrzebne do wdrożenia systemów uczenia maszynowego na swoim krzemie.

Jak można się spodziewać, plik 34 zestawy referencyjne open source uwzględniają różnorodne typowe obciążenia AI/ML – od dużych modeli językowych wykorzystywanych do obsługi chatbotów i innych generatywnych AI, po bardziej przyziemne zadania, takie jak wykrywanie obiektów, generowanie głosu i przewidywanie ryzyka finansowego.

Intel twierdzi, że każdy zestaw opracowany we współpracy z Accenture zawiera cały niezbędny kod modelu, dane szkoleniowe, biblioteki, komponenty openAPI i instrukcje niezbędne do wdrożenia ich na sprzęcie Intel. Powiedziano nam, że zestawy referencyjne będą okresowo aktualizowane na podstawie opinii społeczności.

Żeby było jasne, zestawy te wydają się być wyłącznie oprogramowaniem: dostarczasz sprzęt (Intel inside), a następnie używasz podanych zestawów do tworzenia na nich aplikacji.

Intel ma w ofercie sporo akceleratorów i procesorów graficznych zdolnych do obsługi tego rodzaju aplikacji AI – w tym procesory szkoleniowe Habana Gaudi2, procesory graficzne Ponte Vecchio i rozszerzenia Advanced Matrix Extensions wbudowane w procesory Intel Sapphire Rapids Xeon Scalable.

Jednak pomimo całego szumu wokół generatywnej sztucznej inteligencji, akceleratory Intela nie cieszyły się zainteresowaniem opinii publicznej i powszechnym przyjęciem, jakie cieszą się procesory graficzne Nvidii. Jednak ze względu na duże klastry węzłów GPU wymagane do uczenia największych i najbardziej imponujących modeli – główni dostawcy usług w chmurze wdrażają dziesiątki tysięcy procesorów graficznych i akceleratorów właśnie z tego powodu – Intel może odnieść zwycięstwo po prostu dlatego, że klienci nie mogą zdobądź karty Nvidii w odpowiednich ilościach lub rozsądnych cenach.

Jak donosi nasza witryna rodzeństwa Następna platforma, karty Nvidia H100 PCIe – nawet najpotężniejsza wersja procesora graficznego – nie były cętkowany sprzedawane po 40,000 XNUMX dolarów za sztukę w serwisie eBay.

Jeśli więc Intelowi uda się obniżyć barierę we wdrażaniu obciążeń AI w swoich akceleratorach, oczywiste jest, że tytanowi x86 powinno łatwiej przekonać klientów do zakupu jego części – zwłaszcza tych droższych.

Oczywiście Intel nie jest osamotniony w tej strategii. Nvidia odniosła już wielki sukces w opracowywaniu i komercjalizacji oprogramowania przyspieszanego przez swoje procesory graficzne. W ubiegłym roku dyrektor finansowa Colette Kress podkreśliła znaczenie takiego oprogramowania subskrypcyjnego dla zwiększenia przychodów mistrza akceleracji do wysokich poziomów $ 1 biliona.

AMD również bardziej agresywnie wprowadziło własne procesory graficzne i akceleratory dla sztucznej inteligencji. W czerwcu to szczegółowe procesory APU i procesory graficzne Instinct MI300, które zostały zaprojektowane tak, aby konkurować z Nvidią zarówno na arenie HPC, jak i AI/ML. Oprócz nowego krzemu producent chipów również ogłosił strategiczne partnerstwo z firmą Hugging Face, która opracowuje narzędzia do tworzenia aplikacji ML w celu optymalizacji popularnych modeli AI dla procesorów graficznych AMD Instinct, układów FPGA Alveo oraz procesorów Epyc i Ryzen. ®

Znak czasu:

Więcej z Rejestr