Az AI-val nagyobb hardver- és szoftverképet kell látnia a PlatoBlockchain Data Intelligence rendszerrel. Függőleges keresés. Ai.

Az AI-val nagyobb hardver- és szoftverképet kell látnia

Szponzorált funkció Másfél évtized telt el azóta, hogy a kutatók elkápráztatták a technológiai világot azzal, hogy bebizonyították, hogy a grafikus feldolgozóegységek segítségével drámai módon felgyorsíthatóak a kulcsfontosságú mesterségesintelligencia-műveletek.

Ez a felismerés továbbra is megragadja a vállalkozások képzeletét. Az IDC arról számolt be, hogy ami az infrastruktúrát illeti, a GPU-gyorsított számítástechnika és a HPC-szerű méretnövelés az egyik legfontosabb szempont az AI-infrastruktúrájukat kiépíteni szándékozó technológiai vezetők és építészek számára.

De minden olyan szervezetnek, amely sikeresen alkalmazta a mesterséges intelligenciát valós problémákra, sokkal többen küzdenek azért, hogy túljussanak a kísérleti vagy kísérleti szakaszon. Az IDC 2021-es kutatása azt találta, hogy a válaszadók kevesebb mint harmada helyezte át mesterséges intelligencia-projektjeit termelésbe, és ezeknek csak egyharmada jutott el a „termelés érett szakaszába”.

Az idézett akadályok közé tartoznak az adatok feldolgozásával és előkészítésével kapcsolatos problémák, valamint az infrastruktúra fejlesztése a mesterséges intelligencia vállalati szintű támogatásához. A vállalatoknak be kell fektetniük a „célirányosan felépített és megfelelő méretű infrastruktúrába” – mondta az IDC.

Mi itt az AI probléma?

Tehát hol járnak rosszul ezek a szervezetek az AI-val? Az egyik tényező az lehet, hogy a technológiai vezetők és az AI-specialisták nem veszik holisztikus pillantást a szélesebb mesterségesintelligencia-folyamatra, miközben túl sok figyelmet fordítanak a GPU-kra más számítási motorokhoz, különösen a tiszteletreméltó CPU-hoz képest.

Mert végső soron nem a CPU-k és a GPU-k és az ASIC-k támogatásáról van szó. Inkább arról van szó, hogy megtaláljuk az optimális módszert egy mesterséges intelligencia folyamat létrehozására, amely elvezeti Önt az ötletektől, adatoktól és modellépítéstől a telepítésig és a következtetésekig. Ez pedig azt jelenti, hogy értékelni kell a különböző processzorarchitektúrák erősségeit, hogy a megfelelő számítási motort a megfelelő időben alkalmazhassa.

Shardul Brahmbhatt, az Intel adatközponti mesterséges intelligencia stratégiájának és végrehajtásának vezető igazgatója kifejti: „A CPU-t mikroszolgáltatásokhoz és hagyományos számítási példányokhoz használták a felhőben. A GPU-kat pedig párhuzamos számításokhoz használták, például média streaminghez, játékhoz és mesterséges intelligencia terhelésekhez.”

Ahogy tehát a hiperskálázók és más felhő-lejátszók figyelmüket a mesterséges intelligencia felé fordították, világossá vált, hogy ugyanazokat az erősségeket használják ki különböző feladatokhoz.

A GPU-k párhuzamos számítási képességei kiválóan alkalmassá teszik őket például AI-algoritmusok betanítására. Eközben a CPU-k előnyt élveznek az alacsony kötegelt, alacsony késleltetésű valós idejű következtetések terén, és ezen algoritmusok használatával élő adatok elemzésére, valamint eredmények és előrejelzések továbbítására.

Ismét vannak figyelmeztetések, Brahmbhatt elmagyarázza: „Vannak olyan helyek, ahol több kötegelt következtetést szeretne végezni. És ez a kötegelt következtetés is olyan, amit GPU-kon vagy ASIC-eken keresztül hajtanak végre."

A csővezetéken lefelé nézve

De az AI-folyamat túlmutat a képzésen és a következtetésen. A csővezeték bal oldalán az adatokat elő kell feldolgozni, és algoritmusokat kell kidolgozni. A generalista CPU-nak itt jelentős szerepe van.

Valójában a GPU-k a teljes processzortevékenység viszonylag kis hányadát teszik ki a mesterséges intelligencia folyamaton keresztül, az Intel szerint a CPU-val hajtott „adatfázisú” munkaterhelések összességében kétharmadát teszik ki (olvasható el a Solution Brief – Optimalizálja a következtetést az Intel CPU technológiával itt).

És Brahmbhatt emlékeztet bennünket arra, hogy a CPU architektúrának más előnyei is vannak, beleértve a programozhatóságot.

„Mivel a CPU-kat olyan széles körben használták, már létezik egy létező fejlesztői és alkalmazási ökoszisztéma, valamint olyan eszközök, amelyek egyszerű használatot és programozhatóságot biztosítanak az általános célú számításokhoz” – mondja.

„Másodszor, a CPU-k gyorsabb hozzáférést biztosítanak a nagyobb memóriaterülethez. A harmadik dolog pedig az, hogy strukturálatlanabb a számítás, mint a GPU-k [amelyek] párhuzamosabbak. Ezen okokból kifolyólag a CPU-k adatmozgatóként működnek, amelyek táplálják a GPU-kat, segítve ezzel a Recommender System modelleket, valamint az olyan változó munkaterheléseket, mint a Graph Neural Networks.

Nyílt terv a mesterséges intelligencia fejlesztésére

Hogyan tekintsük tehát a CPU-k és a GPU-k szerepét egy mesterséges intelligencia-fejlesztési folyamat tervezése során, akár helyszíni, akár felhőben, akár mindkettőn?

A GPU-k forradalmasították a mesterséges intelligencia fejlesztését, mert olyan gyorsítási módszert kínáltak, amely leveszi a műveleteket a CPU-ról. De ebből nem következik, hogy adott munkához ez a legésszerűbb megoldás.

Ahogy Sharath Raghava, az Intel platform építésze kifejti: „Az AI alkalmazások vektorizált számításokkal rendelkeznek. A vektorszámítások párhuzamosíthatók. Az AI-munkaterhelések hatékony futtatása érdekében kihasználhatjuk a CPU-k és GPU-k képességeit, figyelembe véve a vektorszámítások méretét, a kitöltési késleltetést, a párhuzamosíthatóságot és sok más tényezőt. De folytatja, egy „kisebb” feladatnál a tehermentesítés „költsége” túlzott lesz, és lehet, hogy nincs értelme GPU-n vagy gyorsítón futtatni.

A CPU-k is profitálhatnak a más rendszerelemekkel való szorosabb integrációból, amely lehetővé teszi számukra az AI-feladat gyorsabb elvégzését. A mesterséges intelligencia bevezetéséből származó maximális érték elérése több, mint maguknak a modelleknek a futtatása – a keresett betekintés a hatékony előfeldolgozási, következtetési és utófeldolgozási műveletektől függ. Az előfeldolgozás megköveteli, hogy az adatokat előkészítsék, hogy megfeleljenek a betanított modell bemeneti elvárásainak, mielőtt betáplálnák a következtetések generálására. A hasznos információkat az utófeldolgozási szakaszban nyerik ki a következtetési eredményekből.

Ha például egy adatközponti behatolásérzékelő rendszerre (IDS) gondolunk, fontos, hogy a modell kimenetén cselekedjünk, hogy időben megvédjük és megelőzzük a kibertámadás okozta károkat. És általában az elő- és utófeldolgozási lépések hatékonyabbak, ha a gazdarendszer CPU-in hajtják végre, mert szorosabban integrálódnak az építészeti ökoszisztéma többi részéhez.

Teljesítménynövekedés induló megrendelések esetén

Tehát ez azt jelenti, hogy teljesen lemondunk a GPU-gyorsítás előnyeiről? Nem feltétlenül. Az Intel néhány éve AI-gyorsítást épít Xeon Scalable CPU-iba. A kínálatban már szerepel a Deep Learning Boost a mély tanulási modellek nagy teljesítményű következtetéseihez, míg az Intel Advanced Vector Extensions 512 (AVX 512) és Vector Neural Network Extensions (VNNI) felgyorsítják az INT8 következtetési teljesítményét. De a DL Boost agyi lebegőpontos formátumot (BF16) is használ a teljesítmény növelésére olyan edzési terheléseknél, amelyek nem igényelnek nagy pontosságot.

Az Intel közelgő Xeon Scalable negyedik generációs CPU-i fejlett mátrixszorzást vagy AMX-et adnak hozzá. Ez további nyolcszoros lökést ad a korábbi processzorokban megvalósított AVX-8 VNNI x512 bővítményekhez képest az Intel számításai szerint, és lehetővé teszi a 86. generációs Intel Xeon Scalable processzorok számára, hogy „a GPU-hoz hasonlóan kezeljék a képzési terheléseket és a DL-algoritmusokat”. De ugyanezek a gyorsítók az AI és nem AI munkaterhelések általános CPU-számítására is alkalmazhatók.

Ez nem jelenti azt, hogy az Intel elvárja, hogy az AI-csővezetékek az elejétől a végéig x86-osak legyenek. Amikor ésszerűbb teljes mértékben tehermentesíteni a párhuzamosításból származó képzési terheléseket, az Intel felajánlja Habana Gaudi AI oktatóprocesszorát. A benchmark tesztek azt sugallják, hogy az utóbbi az Amazon EC2 DL1 példányait támogatja, amelyek akár 40 százalékkal jobb ár-teljesítményt biztosítanak, mint a szintén felhőben tárolt, Nvidia GPU-alapú oktatási példányok.

Ugyanakkor az Intel Data Center GPU Flex sorozata olyan munkaterhelésekre és műveletekre irányul, amelyek előnyt élveznek a párhuzamosításból, például az AI-következtetésből, a „könnyebb” és összetettebb AI-modellek különböző megvalósításaival. Egy másik Intel® Data Center GPU, Ponte Vecchio (PVC) kódnéven, hamarosan megkezdi az Aurora szuperszámítógép táplálását az Argonne National Laboratoryban.

Mehetünk a végétől a végéig?

Lehetséges tehát, hogy az Intel szilíciuma alátámaszthatja a teljes mesterségesintelligencia-folyamatot, miközben minimálisra csökkenti a különböző számítási motorok közötti szükségtelen adatterhelést. A vállalat processzorai – legyen szó GPU-ról vagy CPU-ról – egy közös szoftvermodellt is támogatnak, amely nyílt forráskódú eszközökön és keretrendszereken alapul, Intel-optimalizálással a OneAPI programján keresztül.

Brahmbhatt további előnyként említi az Intelnek a közösségi és nyílt forráskódú x86-os szoftverökoszisztéma felépítésében szerzett örökségét. „Az Intel filozófiája a következő: „hagyd, hogy az ökoszisztéma vezérelje az elfogadást”. És biztosítanunk kell, hogy tisztességesek és nyitottak legyünk az ökoszisztéma felé, és a titkos szószunkat vissza kell juttatnunk az ökoszisztémának.”

„Egy közös szoftvercsomagot használunk annak biztosítására, hogy a fejlesztőknek ne kelljen aggódniuk az IP CPU és GPU közötti különbsége miatt az AI-hez.”

A közös szoftvercsomag és a megfelelő számítási motor megfelelő feladathoz való használatára való összpontosítás kombinációja még fontosabb a vállalatnál. A vállalkozások a mesterséges intelligenciára támaszkodnak, hogy segítsenek megoldani néhány legégetőbb problémát, akár a felhőben, akár a prem-en találhatók. A vegyes munkaterheléshez azonban teljes értékű szoftverre, valamint a rendszerverem karbantartására és kezelésére van szükség a gyorsítón található kernelben nem szereplő kód futtatásához.

Tehát, amikor a „hogyan érjük el a mesterséges intelligenciát vállalati léptékűvé” kérdés megválaszolását, a válasz attól függhet, hogy egy pillantást vetünk a nagyobb képre, és megbizonyosodunk arról, hogy a rendelkezésére álló hardver- és szoftverkészlet teljes készletét használja.

Az Intel támogatásával.

Időbélyeg:

Még több A regisztráció