Vloga CPE v trajnostni AI/ML

Vloga CPE v trajnostni AI/ML

Vloga CPE v trajnostni AI/ML PlatoBlockchain Data Intelligence. Navpično iskanje. Ai.

Oglaševalec Ko umetna inteligenca širi svoj doseg v poslovnih računalniških okoljih, njen vpliv povzroča nekaj nepričakovanih stranskih učinkov. IDC-jev najnovejši FutureScape Poročilo na primer napoveduje, da bo tehnologija postala ključni motivator za inovacije, medtem ko podjetja tekmujejo za uvedbo izdelkov/storitev, izboljšanih z AI, in pomagajo svojim strankam pri implementacijah AI.

Druga sprememba, ki jo poganja umetna inteligenca, se osredotoča na obseg, v katerem bodo podatkovni centri morda morali uravnotežiti CPE z ločenimi pospeševalniki umetne inteligence, kot so grafični procesorji ali specializirane arhitekture, da bi zagotovili visoko zmogljive računalniške zmogljivosti, ki jih želijo razvijalci umetne inteligence.

To je razprava, ki sproža velika vprašanja za lastnike podatkovnih centrov, tako v smislu dodatnih naložb CAPEX kot verjetnosti, da (čeprav so metode merjenja nenatančne) tipične operacije umetne inteligence, ki jih poganja GPE, porabijo več energije kot običajne delovne obremenitve IT.

Ukvarjanje z višjo porabo energije/ogljičnimi stroški umetne inteligence je dodatna težava za operacije podatkovnih centrov, ki morajo zagotoviti tudi, da lahko nadgrajene računalniške arhitekture, optimizirane za umetno inteligenco, upravljajo povečane zahteve po energiji brez tveganja preobremenitve obstoječe tehnologije ali objektov.

Ker razširjena regulacija na področju trajnostnega upravljanja in upravljanja z ogljikom spodbuja operacije k zmanjšanju porabe energije v celotni paleti strojne in programske opreme IT, umetna inteligenca predstavlja tako priložnost kot oviro.

Zmanjšanje porabe energije AI

Povečana poraba energije in potrebne arhitekturne rekonfiguracije, ki so potrebne za prilagoditev delovnim obremenitvam umetne inteligence in strojnega učenja, skupaj predstavljajo neizprosen izziv za podatkovne centre, pojasnjuje Stephan Gillich, direktor umetne inteligence GTM v Intelovem centru odličnosti umetne inteligence.

»V vseh vertikalnih sektorjih in panogah je dokaj jasno, kjer koli se razvijajo, usposabljajo in izvajajo aplikacije in storitve AI/strojnega učenja, da bodo morale biti zmogljivosti IT-naprav, ki gostujejo na mestu in v oblaku, nadgrajene za obvladovanje povečanih količin podatkov. - intenzivne delovne obremenitve,« pravi Gillich. "Jasno je tudi, da bodo te nadgradnje morale vključevati več kot le povečevanje računalniških zmogljivosti."

Gillich meni, da je mogoče storiti veliko za povečanje trajnosti podatkovnih centrov, osredotočenih na umetno inteligenco, začenši s ponovnim vrednotenjem nekaterih predpostavk okoli pokrajine umetne inteligence/strojnega učenja. Procesorske enote so dober začetek, zlasti ko se odločate, ali so CPE ali GPE bolj primerni za nalogo.

Čeprav se zdi, da so računalniško intenzivne delovne obremenitve, specifične za umetno inteligenco, v porastu (nihče ni povsem prepričan, s kakšnim tempom), mora večina dela v podatkovnem centru (delovne obremenitve, ki niso povezane z umetno inteligenco) še naprej odlagati iz dneva v dan – zagotavljanje stabilne aplikacije in tokovi prihodkov storitev ne smejo biti moteni.

Večino teh trenutno upravljajo procesorji in ponovna opremljanje standardnega podatkovnega centra z dražjimi grafičnimi procesorji bi bila za zelo veliko objektov presežek zahtev. Na splošno GPE porabi več moči kot CPE za opravljanje podobne naloge. Vključevanje grafičnih procesorjev v infrastrukturo podatkovnega središča zahteva na primer nadgradnje sistemov za distribucijo električne energije, kar bo poleg višjih računov za energijo, ko začnejo delovati, zagotovo povzročilo dodatne vnaprejšnje stroške.

Še več, Intelov razvoj CPE nadaljuje z inovacijami. V več primerih uporabe je mogoče dokazati, da CPE dosega enako dobro – in včasih boljšo – splošno zmogljivost kot GPE, trdi Gillich. In njihovo zmogljivost je mogoče povečati s prelomno tehnologijo, kot je Intel® AMX (Advanced Matrix Extensions), pospeševalnik, vgrajen v procesorje Intel Xeon 4. generacije.

»Procesorji Intel Xeon lahko omogočijo podatkovnemu centru, da razširi svojo uporabo umetne inteligence z vgrajenim pospeševanjem umetne inteligence, ki poveča zmogljivost CPU za strojno učenje, usposabljanje in sklepanje,« poudarja Gillich. "Na ta način lahko sprejmejo diskretne pospeševalnike, da zmanjšajo CAPEX in povečajo zmogljivost, medtem ko izkoriščajo obstoječa procesorska okolja Intel Xeon."

Delovne obremenitve, ki niso povezane z umetno inteligenco, je treba mešati

Intel AMX je namenski blok strojne opreme v procesorskem jedru Intel Xeon Scalable, ki omogoča, da se delovne obremenitve umetne inteligence izvajajo v CPE, namesto da bi jih preložile na ločen pospeševalnik, kar zagotavlja znatno povečanje zmogljivosti. Primeren je za delovne obremenitve AI, kot so sistemi priporočil strojnega učenja, prepoznavanje slik in obdelava naravnega jezika, ki temeljijo na matrični matematiki.

Drug argument v prid razširjenim CPU-jem je, da zagotavljajo stroškovno učinkovito pot za operaterje podatkovnih centrov, da bolje izkoristijo obstoječe CPU-je, svoja sredstva zaščitijo v prihodnosti, tako da lahko prevzamejo mešane delovne obremenitve, in jih postavijo v položaj za boljše nadzirajte celotno porabo energije.

To pa lahko pomaga ponudnikom storitev podatkovnih centrov (in njihovim strankam) doseči trajnostne cilje in nudi prodajno točko za razvijalce programske opreme (podjetja ali tretje osebe), ki iščejo optimizirano platformo za predstavitev energetske učinkovitosti svojega kodiranja. izhodi.

»Resničnost je taka, da se operaterji podatkovnih centrov namesto hitenja s priložnostmi, ki jih lahko obljubljajo delovne obremenitve z umetno inteligenco, zavedajo, da bi morali razmisliti o vrsti imperativov, ki temeljijo tako na komercialnih pomislekih kot na tehnoloških odločitvah,« pravi Gillich.

Ti imperativi bi lahko vključevali: integracijo delovnih obremenitev umetne inteligence z delovnimi obremenitvami, ki niso umetne inteligence; integracija različnih sklopov strojne in programske opreme; in ker želijo zagotoviti, da imajo arhitekturo, ki je primerna za več različnih delovnih obremenitev, integracijo različnih vrst toka dela.

»Ta vprašanja kažejo na zapletene izzive, saj njihovo pravilno postavljanje vpliva na optimalno tehnološko in energetsko učinkovitost – pri čemer je energetska učinkovitost zdaj osrednje merilo uspešnosti, ki bo vse bolj vplivalo na komercialno sposobnost podatkovnega centra,« pravi Gillich. "Torej še enkrat, to je izrednega pomena."

Z Gillichovega vidika je ključ do prilagajanja tej nastajajoči realnosti postopni proces tega, kar lahko imenujemo "asimilacija umetne inteligence". Prva točka tukaj je, da delovne obremenitve AI niso ločene od drugih vrst delovnih obremenitev – integrirane bodo v običajne delovne obremenitve, namesto da bi se izvajale ločeno.

Gillich navaja videokonference kot primer te postopne integracije: »Že med pretakanjem standardnega avdio/video prometa prek standardnih aplikacij je AI integriran za izvajanje sočasnih nalog, kot so povzemanje, prevajanje, prepisovanje. Takšne funkcije zelo dobro podpira AI.

Prihranki energije od konca do konca

Gillich trdi, da mora biti doseganje energetske učinkovitosti resnično strateški podvig od konca do konca. »Zajema stran programske opreme in tudi arhitekturo strojne opreme – celoten mehanizem, ki omogoča dani proces delovnega toka. Kje so shranjeni podatki, da je dostop najučinkovitejši – glede računalništva in s tem energije – ali je to najboljše mesto za energetsko učinkovitost?«

Drugi dejavnik, ki ga je treba vključiti v to oceno, je ugotoviti, kje poteka delovna obremenitev. Ali se na primer izvaja na odjemalcih (kot je računalnik z umetno inteligenco, opremljen s procesorji Intel Core Ultra, namesto na strežnikih v podatkovnem središču? Ali je mogoče nekatere od teh delovnih obremenitev z umetno inteligenco dejansko izvajati na odjemalcih (poleg strežnikov)?

Gillich trdi, da je vsaka možnost vredna premisleka, če bo pripomogla k boljšemu usklajevanju razmerja med AI-računalništvom in porabo energije: "To je skoraj kot vrnitev k stari šoli porazdeljenega računalništva."

Gillich dodaja: »Včasih naše stranke vprašajo, 'Kje bo igrala AI?' – odgovor je, da bo AI igral povsod. Pri Intelu so torej naše ambicije osredotočene na tisto, kar bi lahko imenovali univerzalna prilagoditev umetne inteligence, saj verjamemo, da bo vstopila na vsa področja uporabe.«

Pri Intelu to zajema vmesno programsko opremo, kot so API-ji, ki morajo biti tako kot vsi drugi deli programskega sklada čim bolj učinkoviti. „Širjenje API-jev“ lahko povzroči nepotrebno obdelavo, zmanjšanje njihovega infrastrukturnega odtisa ter pomanjkanje spremljanja in nadzora.

»Z Intel oneAPI, lahko podjetja uresničijo svojo polno vrednost strojne opreme, razvijejo visoko zmogljivo navzkrižno arhitekturno kodo in pripravijo svoje aplikacije za prihodnje potrebe,« pojasnjuje Gillich.

»Intel oneAPI je odprt, na standardih temelječ medpanožni, poenoten programski model z več arhitekturami in več ponudniki, ki zagotavlja skupno izkušnjo razvijalcev v arhitekturah pospeševalnikov – za hitrejše delovanje aplikacij in izboljšano produktivnost. Pobuda oneAPI spodbuja sodelovanje pri specifikaciji oneAPI in združljivih implementacijah oneAPI v celotnem ekosistemu.«

Gillich dodaja: »oneAPI zagotavlja sklad vmesne programske opreme, ki sprejme standardne stvari, kot so AI Frameworks – kot sta Pytorch ali TensorFlow [odprtokodna programska platforma za AI in strojno učenje] – in jih prevede na ravni stroja, oneAPI pa omogoča učinkovit način za naredi to. Uporabniki lahko uporabljajo skupni API na ravni ogrodja Ai, mi pa imamo API (oneAPI), ki obravnava različne okuse strojne opreme.« Skupni API torej pomeni, da lahko uporabniki ustvarijo odprto programsko opremo, ki je lahko podprta v skladu odprte programske opreme.

Zmogljivost na ravni GPE po cenovnih točkah na ravni CPE

Napredek na področju IT v veliki meri poganjajo pričakovanja stalnega tehnološkega napredka v povezavi z vpogledom usmerjenimi izboljšavami v strategijah uvajanja. To je model, ki temelji na iskanju najboljšega dosegljivega ravnovesja med proračunskimi izdatki in donosnostjo naložbe podjetja ter na pričakovanju, da je vedno treba stremeti k dodatnim inovacijam. Umetna inteligenca predstavlja vrhunec tega ideala – je dovolj pametna, da z nenehnim samoizboljševanjem na novo izumi lastno vrednostno ponudbo.

Z vgradnjo pospeševalnika AMX v svoje procesorje Intel Xeon 4. generacije Intel pokaže, kako je mogoče doseči zmogljivost na ravni GPU po cenovnih točkah na ravni procesorja. To omogoča podatkovnim centrom, da se povečajo, hkrati pa povečajo povratno vrednost svojih obstoječih procesorskih enot, ki jih poganja Intel Xeon, hkrati pa zagotavlja cenovni model, ki niža vstopne stroške za stranke z delovnimi obremenitvami z umetno inteligenco, vendar z omejenimi proračuni.

Nižja poraba energije CPE-jev pa pomeni, da je energetsko učinkovitost mogoče doseči celostno skozi celotne operacije podatkovnega središča – kot sta hlajenje in prezračevanje – in to je še ena zmagovalna prednost za trajnostno vestne arhitekte programske opreme in razvijalce rešitev AL.

Prispeval Intel.

Časovni žig:

Več od Register