Intel driver AI-referenssatser för att hjälpa till att sälja sitt kisel

Intel driver AI-referenssatser för att hjälpa till att sälja sitt kisel

Intel driver AI-referenssatser för att hjälpa till att sälja sin PlatoBlockchain Data Intelligence i silikon. Vertikal sökning. Ai.

För att uppmuntra tekniker och ingenjörer att prova sin AI-accelerationshårdvara har Intel satt ihop ett gäng programvarureferenssatser som de hävdar kommer att minska tiden och resurserna som krävs för att distribuera maskininlärningssystem på dess kisel.

Som du kan förvänta dig 34 referenssatser med öppen källkod hantera en mängd vanliga AI/ML-arbetsbelastningar – allt från stora språkmodeller som används för att driva chatbotar och annan generativ AI, till mer vardagliga uppgifter som objektdetektering, röstgenerering och finansiell riskförutsägelse.

Intel säger att varje kit, utvecklat i samarbete med Accenture, innehåller all nödvändig modellkod, utbildningsdata, bibliotek, openAPI-komponenter och instruktioner som krävs för att implementera dem på Intels hårdvara. Vi har fått veta att referenspaketen kommer att uppdateras med jämna mellanrum baserat på feedback från communityn.

För att vara tydlig, dessa kit verkar vara enbart mjukvara: du tillhandahåller (Intel inuti) hårdvaran och använder sedan de givna kiten för att bygga applikationer på dem.

Intel har en hel del acceleratorer och GPU:er som kan köra den här typen av AI-appar – inklusive dess Habana Gaudi2 träningsprocessorer, Ponte Vecchio GPU: er och Advanced Matrix Extensions inbakade i Intels Sapphire Rapids Xeon Scalable-processorer.

Trots all hype kring generativ AI har Intels acceleratorer dock inte njutit av den offentliga uppmärksamheten och det utbredda antagandet som Nvidias GPU:er har. Men på grund av de stora kluster av GPU-noder som krävs för att träna de största och mest imponerande modellerna – de stora molnleverantörerna distribuerar tiotusentals GPU:er och acceleratorer av just denna anledning – kan Intel sluta med att göra vinster bara för att kunderna inte kan få tag på Nvidias kort i tillräckliga volymer eller rimliga priser.

Som rapporterats av vår syskonsajt Nästa plattform, Nvidias H100 PCIe-kort – inte ens den mest kraftfulla versionen av GPU:n – har blivit fick syn på säljs för så mycket som $40,000 XNUMX per pop på eBay.

Så om Intel kan sänka barriären för att distribuera AI-arbetsbelastningar på sina acceleratorer, är det rimligt att x86 titan borde ha lättare att övertyga kunder om att köpa dess delar – särskilt de dyrare.

Naturligtvis är inte Intel ensam om denna strategi. Nvidia har redan funnit stora framgångar med att utveckla och kommersialisera mjukvara som accelereras av dess GPU:er. Förra året betonade CFO Colette Kress vikten av sådan prenumerationsmjukvara för att driva accelerationsmästarens intäkter till höga $ 1 biljoner.

AMD har också blivit mer aggressiva när det gäller att driva sina egna GPU:er och acceleratorer för AI. I juni det detaljerad dess Instinct MI300 APU:er och GPU:er, som är designade för att konkurrera direkt med Nvidia på både HPC- och AI/ML-arenorna. Vid sidan av det nya kislet, även chipmakern meddelade ett strategiskt partnerskap med Hugging Face, som utvecklar verktyg för att bygga ML-appar, för att optimera populära AI-modeller för AMD:s Instinct GPU, Alveo FPGA och Epyc och Ryzen CPU:er. ®

Tidsstämpel:

Mer från Registret