A CPU szerepe a fenntartható AI/ML-ben

A CPU szerepe a fenntartható AI/ML-ben

The role of the CPU in sustainable AI/ML PlatoBlockchain Data Intelligence. Vertical Search. Ai.

Reklámfilmek Ahogy a mesterséges intelligencia kiterjeszti hatókörét az üzleti számítástechnikai környezetekre, hatása nem várt utóhatásokat okoz. Az IDC legújabb verziója FutureScape A jelentés például azt jósolja, hogy miközben a vállalatok versengenek a mesterséges intelligencia által továbbfejlesztett termékek/szolgáltatások bevezetéséért, és segítik ügyfeleiknek a mesterséges intelligencia megvalósítását, a technológia az innováció kulcsfontosságú ösztönzőjévé válik.

Egy másik, mesterséges intelligencia által vezérelt változás arra irányul, hogy az adatközpontoknak milyen mértékben kell kiegyensúlyozniuk a CPU-kat diszkrét AI-gyorsítókkal, például GPU-kkal vagy speciális architektúrákkal, hogy biztosítsák az AI-fejlesztők által igényelt nagy teljesítményű számítási képességeket.

Ez egy olyan vita, amely komoly problémákat vet fel az adatközpont-tulajdonosok számára, mind a további CAPEX-befektetések, mind annak valószínűsége tekintetében, hogy (a mérési módszerek pontatlanok) a tipikus GPU-vezérelt AI-műveletek több energiát fogyasztanak, mint a hagyományos IT-munkaterhelések.

A mesterséges intelligencia magasabb energiafogyasztásának/szén-kibocsátásának kezelése további nehézséget jelent az adatközponti műveleteknél, aminek azt is biztosítania kell, hogy a mesterséges intelligencia számára optimalizált továbbfejlesztett számítási architektúrák kezelni tudják a megnövekedett energiaigényt a meglévő technológia vagy létesítmények túlterhelésének kockázata nélkül.

Mivel a fenntarthatósági irányítás és a szén-dioxid-gazdálkodás kiterjesztett szabályozása az energiafelhasználás csökkentését szorgalmazza az informatikai hardver és szoftver teljes skáláján, az AI egyszerre jelent lehetőséget és akadályt.

Az AI energiafogyasztás mérséklése

Összességében a megnövekedett energiafogyasztás, valamint a mesterséges intelligencia és a gépi tanulási munkaterheléshez szükséges architekturális újrakonfigurálások leküzdhetetlen kihívást jelentenek az adatközpontok számára – magyarázza Stephan Gillich, az Intel AI Kiválósági Központjának mesterséges intelligencia GTM igazgatója.

„Meglehetősen egyértelmű a vertikális szektorokban és iparágakban, bárhol fejlesztik, képezik és futtatják az AI/Machine Learning alkalmazásokat és szolgáltatásokat, hogy az on-prem és a felhőalapú informatikai létesítmények képességeit tovább kell fejleszteni a megnövekedett adatmennyiség kezelésére. - intenzív munkaterhelés” – mondja Gillich. "Az is világos, hogy ezeknek a frissítéseknek többet kell magukban foglalniuk, mint pusztán a számítási képesség felfutását."

Sokat lehet tenni az AI-központú adatközpontok fenntarthatóságának javítása érdekében, véli Gillich, kezdve az AI/gépi tanulási környezettel kapcsolatos egyes feltételezések újraértékelésével. A feldolgozóegységek jó kiindulópont, különösen akkor, ha eldöntjük, hogy a CPU-k vagy a GPU-k alkalmasak-e jobban a feladatra.

Mert bár úgy tűnik, hogy a mesterséges intelligencia-specifikus számításigényes munkaterhelések növekszenek (senki sem tudja pontosan, milyen ütemben), az adatközponti munka nagy részének (a nem mesterséges intelligencia terhelésnek) továbbra is nap, mint nap el kell csapódnia – folyamatos alkalmazást biztosítva. és a szolgáltatások bevételi forrásait nem szabad megzavarni.

Ezek többségét jelenleg CPU-k kezelik, és a szabványos adatközpontok költségesebb GPU-kkal való átépítése sok létesítmény számára többletet jelentene. Általánosságban elmondható, hogy egy GPU több wattot fogyaszt, mint egy CPU hasonló feladat végrehajtásához. Az adott rack-konfiguráció tápellátásától függően a GPU-k adatközponti infrastruktúrába való integrálása például az energiaelosztó rendszerek frissítését igényli, ami plusz előzetes költségekkel jár, amellett, hogy üzembe helyezésükkor magasabb energiaszámlákat kell fizetni.

Mi több, az Intel CPU-fejlesztése továbbra is újításokat folytat. Több felhasználási esetben is bizonyítható, hogy a CPU ugyanolyan jó – és néha jobb – általános teljesítményt ér el, mint a GPU, érvel Gillich. Teljesítményük pedig olyan áttörő technológiával növelhető, mint az Intel® AMX (Advanced Matrix Extensions), amely a 4. generációs Intel Xeon CPU-kba épített gyorsító.

„Az Intel Xeon processzorai lehetővé teszik egy adatközpont számára, hogy a beépített AI-gyorsítás révén skálázható legyen a mesterséges intelligencia alkalmazása, amely növeli a processzor teljesítményét a gépi tanuláshoz, a képzéshez és a következtetésekhez” – mutat rá Gillich. "Ily módon diszkrét gyorsítókat alkalmazhatnak a CAPEX minimalizálása és a teljesítmény maximalizálása érdekében, miközben kihasználják a meglévő Intel Xeon feldolgozási környezeteket."

Keverni kell a mesterséges intelligencia és a nem AI munkaterheléseket

Az Intel AMX egy dedikált hardverblokk az Intel Xeon Scalable processzormagon, amely lehetővé teszi, hogy az AI-munkaterhelések a CPU-n futjanak, ahelyett, hogy egy különálló gyorsítóra raknák őket, jelentős teljesítménynövekedést biztosítva. Alkalmas olyan mesterséges intelligencia munkaterhelésekhez, mint a Machine Learning ajánlórendszerek, a képfelismerés és a természetes nyelvi feldolgozás, amelyek mátrix matematikára támaszkodnak.

Egy másik érv a kibővített CPU-k mellett, hogy költséghatékony utat biztosítanak az adatközpontok üzemeltetői számára, hogy többet vállaljanak a meglévő CPU-kötelezettségekből, jövőbiztosak legyenek eszközeik, így vegyes terhelést is képesek legyenek vállalni, és jobb helyzetbe hozzák őket. szabályozza az általános energiafelhasználást.

Ez viszont segíthet az adatközponti szolgáltatások szolgáltatóinak (és ügyfeleiknek) a fenntarthatósági célok elérésében, és értékesítési pontot jelenthet a szoftverfejlesztőknek (vállalati vagy harmadik félnek), akik optimalizált platformot keresnek kódolásuk energiahatékonyságának bemutatására. kimenetek.

„A valóság az, hogy ahelyett, hogy rohannának a mesterséges intelligencia terhelése által ígért lehetőségekkel, az adatközpontok üzemeltetői ráébrednek, hogy számos olyan követelményt kell figyelembe venniük, amelyekre éppúgy vonatkoznak a kereskedelmi szempontok, mint a technológiai döntések” – mondja Gillich.

Ezek az igények a következőket foglalhatják magukban: a mesterséges intelligencia munkaterheléseinek integrálása nem mesterséges intelligencia munkaterhelésekkel; különböző hardver- és szoftververemek integrálása; és mivel biztosítani akarják, hogy olyan architektúrával rendelkezzenek, amely többféle munkaterheléshez is alkalmas, a különböző munkafolyam-típusok integrálására.

„Ezek a kérdések összetett kihívásokra mutatnak rá, mivel ezek helyes megoldása hatással van az optimális technológiai és energiahatékonyságra – az energiahatékonyság ma már a teljesítmény alapvető mércéje, amely egyre inkább befolyásolja az adatközpontok kereskedelmi életképességét” – mondja Gillich. "Tehát ismét rendkívül fontos."

Gillich szemszögéből a kialakuló valósághoz való alkalmazkodás kulcsa az úgynevezett „AI asszimiláció” lépéses folyamata. Az első pont az, hogy a mesterséges intelligencia terhelései nincsenek elkülönítve más típusú terhelésektől – a hagyományos munkaterhelésekbe integrálva lesznek, ahelyett, hogy külön futnának.

Gillich a videokonferenciát ad példát erre a szakaszos integrációra: „Már a szabványos audio/video forgalom szabványos alkalmazásokon keresztül történő streamelése közben az AI integrálva van az olyan kapcsolódó feladatok elvégzésére, mint az összegzés, fordítás, átírás. Az ilyen funkciókat az AI nagyon jól támogatja.

Végponttól végpontig energiamegtakarítás

Az energiahatékonyság elérésének valóban átfogó stratégiai vállalkozásnak kell lennie, érvel Gillich. „Átfogja a szoftveroldalt, valamint a hardverarchitektúrát – a teljes mechanizmust, amely lehetővé teszi egy adott munkafolyamatot. Hol tárolják az adatokat a hozzáférés leghatékonyabbá tétele érdekében – számítástechnikailag és így energiaigényesen – ez a legjobb hely az energiahatékonysághoz?”

A másik tényező, amelyet ebben az értékelésben figyelembe kell venni, annak meghatározása, hogy hol fut a munkaterhelés. Például klienseken fut (például Intel Core Ultra processzorokkal felszerelt mesterséges intelligencia PC-n, nem pedig az adatközpontban lévő szervereken? Valójában futtatható-e néhány ilyen mesterséges intelligencia munkaterhelés klienseken (kiszolgálók mellett)?

Minden lehetőséget érdemes megfontolni, ha segít az AI-számítás/energiafogyasztás egyensúly jobb összehangolásában, Gillich érvel: „Ez majdnem olyan, mintha visszatérnénk az elosztott számítástechnika régi iskolájához.”

Gillich hozzáteszi: „Néha ügyfeleink megkérdezik: „Hol fog játszani a mesterséges intelligencia?” – a válasz az, hogy az AI mindenhol játszani fog. Az Intelnél tehát az ambícióink a mesterséges intelligencia univerzális megoldására összpontosítanak, mert úgy gondoljuk, hogy minden alkalmazási területre kiterjed majd.”

Az Intelnél ez magában foglalja az olyan köztes szoftvereket, mint például az API-k, amelyeknek, mint a szoftververem bármely más részének, a lehető leghatékonyabbnak kell lenniük. Az „API szétterjedése” szükségtelen feldolgozást eredményezhet, minimálisra csökkenti az infrastruktúra lábnyomát, valamint a felügyelet és az ellenőrzés hiányát.

"Val vel Intel oneAPI, a vállalatok realizálhatják teljes hardverértéküket, nagy teljesítményű keresztarchitektúra-kódokat fejleszthetnek, és alkalmazásaikat a jövőbeni igényekre készen tudják tenni” – magyarázza Gillich.

„Az Intel oneAPI egy nyitott, több iparágra kiterjedő, szabványokon alapuló, egységes, több architektúrájú, több gyártóra kiterjedő programozási modell, amely közös fejlesztői élményt biztosít a gyorsító architektúrák között – a gyorsabb alkalmazásteljesítmény és a nagyobb termelékenység érdekében. A oneAPI kezdeményezés ösztönzi a oneAPI specifikációval és a kompatibilis oneAPI implementációkkal kapcsolatos együttműködést az egész ökoszisztémában.”

Gillich hozzáteszi: „A oneAPI egy köztes szoftvercsomagot biztosít, amely olyan szabványos dolgokat, mint az AI-keretrendszerek – például a Pytorch vagy a TensorFlow [a mesterséges intelligencia és a gépi tanulás nyílt forráskódú szoftverplatformja] – átveszi és gépi szinten lefordítja, a oneAPI pedig hatékony módot tesz lehetővé csináld. A felhasználók egy közös API-t használhatnak az Ai keretrendszer szintjén, és van egy API-nk (oneAPI), amely a különböző hardverízeket kezeli.” A közös API tehát azt jelenti, hogy a felhasználók nyílt szoftvereket hozhatnak létre, amelyek támogathatók egy nyílt szoftververemen.

GPU-szintű teljesítmény CPU-szintű árpontokon

Az informatika terén elért előrehaladást nagyrészt a folyamatos technológiai fejlődés elvárása a bevezetési stratégiák betekintés-vezérelt fejlesztésével párosítja. Ez egy olyan modell, amely a költségvetési kiadások és az üzleti megtérülés közötti legjobb egyensúly megtalálásán alapul, és azon az elváráson, hogy mindig legyen további innováció, amire törekedni kell. A mesterséges intelligencia ennek az ideálnak a csúcsát képviseli – elég okos ahhoz, hogy állandó önfejlesztéssel újra feltalálja saját értékajánlatát.

Az AMX gyorsító 4. generációs Intel Xeon processzoraiba való beépítésével az Intel megmutatja, hogyan érhető el GPU-szintű teljesítmény CPU-szintű árpontokon. Ez lehetővé teszi az adatközpontok méretezését, miközben maximalizálják meglévő Intel Xeon-alapú processzoraik megtérülési értékét, de olyan árazási modellt is biztosít, amely csökkenti a belépési költségeket a mesterséges intelligencia-terheléssel, de korlátozott költségvetéssel rendelkező ügyfelek számára.

A CPU-k alacsonyabb energiafogyasztása pedig azt jelenti, hogy az energiahatékonyság holisztikusan elérhető az adatközponti létesítmény teljes működése során – például a hűtés és a szellőzés –, és ez egy újabb nyerő vonzerő a fenntarthatóság iránt lelkiismeretes szoftvertervezők és AL-megoldások fejlesztői számára.

Közreműködik az Intel.

Időbélyeg:

Még több A regisztráció