Táplálja a mesterséges intelligencia tüzet a központosított PlatoBlockchain Data Intelligence segítségével. Függőleges keresés. Ai.

Tápláld az AI tüzet központosítással

Szponzorált funkció A forradalmi technológiák és felfedezések – a tűz, a mezőgazdaság, a kerék, a nyomda és az internet, hogy csak néhányat említsünk – folyamatos áradata mélyen alakította az emberi fejlődést és a civilizációt. És ez az innovációs ciklus a mesterséges intelligenciával (AI) folytatódik. 

Az IDC kutatócég odáig jutott, hogy arra a következtetésre jutott, hogy az AI valójában „mindenre” a válasz. Rasmus Andsbjerg, az IDC adat- és elemzési részlegének alelnöke a következőket mondja: „A valóság az, hogy az AI mindenre megoldást kínál, amivel jelenleg szembesülünk. A mesterséges intelligencia forrása lehet a digitális átalakulás gyors követésének, költségmegtakarítást tesz lehetővé elképesztő inflációs ráták idején, és támogatja az automatizálási erőfeszítéseket munkaerőhiány idején.”

Minden bizonnyal minden iparágban és funkcióban a végfelhasználó szervezetek kezdik felfedezni az AI előnyeit, ahogy egyre erősebb algoritmusok és mögöttes infrastruktúra jelennek meg a jobb döntéshozatal és a magasabb termelékenység érdekében. 

A mesterséges intelligencia (AI) piacának világszintű bevételei, beleértve a kapcsolódó szoftvereket, hardvert és szolgáltatásokat mind az AI-központú, mind a nem mesterséges intelligencia-központú alkalmazásokhoz, 383.3-ben összesen 2021 milliárd dollárt tettek ki. friss Az International Data Corporation (IDC) világméretű féléves mesterséges intelligencia-követő.

Hasonlóképpen, az AI-szoftverek felhőbe történő telepítése továbbra is folyamatos növekedést mutat. Az IDC arra számít, hogy az újonnan vásárolt mesterséges intelligencia szoftverek felhőverziói 2022-ben felülmúlják a helyszíni telepítéseket.

A mesterséges intelligencia számára az ég szab határt

Dr. Ronen Dar, a mesterséges intelligencia számára számítástechnikai platformot létrehozó Run:ai mesterséges intelligencia-specialista technológiai igazgatója úgy véli, hogy az égbolt a határ a születőben lévő vállalati AI-szektor számára. 

„Az AI egy olyan piac, amelyről azt látjuk, hogy nagyon gyorsan növekszik. A vállalatokat tekintve pedig azt látjuk, hogy a gépi tanulás és a mesterséges intelligencia iránti kereslet és elfogadás is megtörténik. És úgy gondolom, hogy most van itt egy új technológia, amely olyan új képességeket hoz, amelyek megváltoztatják a világot; amelyek forradalmasítani fogják a vállalkozásokat” – jegyzi meg Dar. 

Egyre világosabban megértik azt is, hogy el kell kezdeni a mesterséges intelligencia feltárását és kísérletezését, valamint megérteni, hogyan integrálható a mesterséges intelligencia az üzleti modellekbe.

Dar úgy véli, hogy a mesterséges intelligencia „elképesztő előnyökkel járhat” a meglévő vállalati üzleti folyamatok fejlesztésében: „A jelenlegi üzlet optimalizálása és bizonyítása tekintetében számos felhasználási esetet látunk az AI és a gépi tanulás körül, amelyek javítják a műveleteket és a döntések meghozatalát. a kereslet és a kínálat körül.”

Rámutat arra, hogy a neurális hálózatokon alapuló új mély tanulási modellek javíthatják a folyamatokat, a döntéshozatalt és a kritikus üzleti folyamatok pontosságát, mint például a csalások felderítése a pénzügyi szolgáltatási ágazatban. Az egészségügy egy másik olyan ágazat, ahol a mesterséges intelligencia potenciálja „hatalmas”, különösen az orvosok jobb klinikai döntések meghozatalában, valamint az új gyógyszerek felfedezésében és kifejlesztésében. 

És ha távolabbra néz, Dar azt jósolja, hogy az AI technológia olyan vadonatúj kereskedelmi lehetőségeket kínál majd, amelyek jelenleg nem léteznek olyan ágazatokban, mint az önvezető járművek és a magával ragadó játék. 

Leküzdendő infrastrukturális akadályok

Annak ellenére, hogy a vállalkozásban rejlik a mesterséges intelligencia és a gépi tanulás lehetősége, Dar elismeri, hogy az AI kereskedelmi bevezetését hátráltatják az infrastruktúra biztosításával kapcsolatos problémák. Azt tanácsolja, hogy a cégeknek először is azt kell megvizsgálniuk, hogyan kerül be az AI egy szervezetbe.

Ez általában egy koordinálatlan, osztályonkénti folyamatot foglal magában, amely során a különböző csapatok egymástól függetlenül biztosítják a technológiát és az erőforrásokat, ami elzárt telepítésekhez vezet. Az informatika nem tudja hatékonyan irányítani ezeket az ad hoc projekteket, és nincs rálátása arra, hogy mi történik. Ez pedig megnehezíti, ha nem lehetetlenné teszi az AI infrastruktúrára fordított ROI kiszámítását. 

„Ez a klasszikus probléma: régen az árnyékinformatika volt, most pedig az árnyék-AI” – mondja Dar. 

Ezenkívül az AI/ML-hez szükséges legkorszerűbb infrastruktúra befektetés, mivel a vállalatoknak nagy teljesítményű GPU-gyorsítású számítási hardverre van szükségük a nagyon összetett adatok feldolgozásához és a modellek betanításához. 

„A mesterséges intelligencia csapatainak sok számítási teljesítményre van szükségük a modellek betanításához, jellemzően GPU-kat használnak, amelyek prémium adatközponti erőforrások, amelyeket le lehet zárni és nem lehet hatékonyan használni” – mondja Dar. "Ez biztos sok pénz kidobását eredményezheti." 

Ez a lezárt infrastruktúra például 10%-nál kevesebb kihasználtságot eredményezhet.

A Run:ai szavazás szerint A 2021-es AI-infrastruktúra állapotfelmérésA válaszadók 2021 százaléka nyilatkozott úgy, hogy valamilyen szintű GPU/számítási erőforrás-elosztási problémát tapasztal, 87 százalékuk pedig azt mondta, hogy ez gyakran előfordul. Ennek eredményeként a megkérdezett vállalatok 12 százaléka arról számolt be, hogy nem használja ki teljesen a GPU-t és az AI-hardvert. Valójában csaknem kétharmaduk (83 százalék) jelezte, hogy GPU-ja és mesterséges intelligencia hardvere többnyire „mérsékelt” kihasználtságú.

Az AI központosítása

E problémák megoldása érdekében Dar a mesterséges intelligencia-források biztosításának központosítását javasolja. A Run:AI egy számítás-kezelő platformot fejlesztett ki az AI számára, amely éppen ezt teszi, központosítja és virtualizálja a GPU számítási erőforrásait. A GPU-k egyetlen virtuális rétegbe való összevonása és a 100 százalékos kihasználtság érdekében a munkaterhelés ütemezésének automatizálása révén ez a megközelítés előnyöket kínál a részlegszintű szilárd rendszerekkel szemben. 

Az infrastruktúra központosítása visszaadja az irányítást és a láthatóságot, miközben megszabadítja az adattudósokat az infrastruktúra kezelésének többletköltségeitől. A mesterséges intelligencia csapatai egy univerzális AI számítási erőforráson osztoznak, amely dinamikusan tárcsázható fel és le a kereslet növekedésével vagy csökkenésével, kiküszöbölve a kereslet szűk keresztmetszeteit és az alulkihasználtság időszakait. 

Dar érvelése szerint ez a megközelítés segíthet a szervezeteknek abban, hogy a legtöbbet hozhassák ki hardverükből, és megszabadítsák az adatkutatókat a mögöttes erőforrás-korlátozások korlátaitól. Mindez azt jelenti, hogy több munkát tudnak futtatni, és több mesterségesintelligencia-modellt hozhatnak gyártásba. 

Példát adunk a London Medical Imaging & Artificial Intelligence Center for Value Based Healthcare, a King's College London által vezetett és a St. Thomas' Hospital székhelyű Központjából. Orvosi képeket és elektronikus egészségügyi adatokat használ a számítógépes látás és a természetes nyelvi feldolgozás kifinomult mélytanulási algoritmusainak betanításához. Ezeket az algoritmusokat új eszközök létrehozására használják a hatékony szűréshez, a gyorsabb diagnózishoz és a személyre szabott terápiákhoz.

A Központ felismerte, hogy az örökölt mesterségesintelligencia-infrastruktúra hatékonysági problémákkal küzd: a teljes GPU-kihasználtság 30 százalék alatt volt, egyes összetevők „jelentős” üresjárati időszakai mellett. Miután a Run:ai platformon alapuló központosított mesterséges intelligencia-kiépítési modellt alkalmazva kezelték ezeket a problémákat, a GPU kihasználtsága 110 százalékkal nőtt, ezzel párhuzamosan javult a kísérleti sebesség és az általános kutatási hatékonyság.

„Kísérleteink napokig vagy percekig is eltarthatnak egy csepp számítási teljesítmény vagy egy egész klaszter felhasználásával” – mondja Dr. M. Jorge Cardoso, a King's College London MI docense és vezető oktatója, valamint az AI Központ műszaki igazgatója. "Az eredmények eléréséhez szükséges idő csökkentése biztosítja, hogy kritikusabb kérdéseket tudjunk feltenni és megválaszolni az emberek egészségével és életével kapcsolatban." 

Az AI GPU-erőforrások központosítása értékes kereskedelmi előnyökkel is járt a Wayve-nek, egy londoni székhelyű cégnek, amely AI szoftvert fejleszt önvezető autókhoz. Technológiáját úgy tervezték, hogy ne függjön az érzékeléstől, hanem a nagyobb intelligenciára összpontosít a jobb autonóm vezetés érdekében sűrű városi területeken.

A Wayve Fleet Learning Loop egy folyamatos adatgyűjtési, gondozási, modellképzési, újraszimulációs és licencelési ciklust foglal magában, mielőtt a flottába kerülne. A vállalat elsődleges GPU-felhasználása a Fleet Learning Loop termelési képzésből származik. Betanítja a termék alapvonalát a teljes adatkészlettel, és folyamatosan újraképződik, hogy a flotta tanulási ciklusának iterációi révén új adatokat gyűjtsön.

A cég kezdett rájönni, hogy a GPU-ütemezési „horror”-tól szenved: bár rendelkezésre álló GPU-erőforrásainak csaknem 100 százalékát a kutatóknak osztották ki, a tesztelés kezdetén kevesebb mint 45 százalékát használták ki. 

„Mivel a GPU-kat statikusan hozzárendelték a kutatókhoz, amikor a kutatók nem használták a hozzájuk rendelt GPU-kat, mások nem fértek hozzájuk, ami azt az illúziót keltette, hogy a modellképzéshez használt GPU-k kapacitása még akkor is elegendő, ha sok GPU tétlen volt” – jegyzi meg Wayve. 

A Run:ai-val végzett munka megoldotta ezt a problémát a silók eltávolításával és az erőforrások statikus allokációjának megszüntetésével. A megosztott GPU-k készleteit hozták létre, amelyek lehetővé teszik a csapatok számára, hogy több GPU-hoz férhessenek hozzá, és több munkaterhelést tudjanak futtatni, ami 35%-os kihasználtságuk javulását eredményezte. 

Tükör CPU-hatékonysági fejlesztések

Tükrözve azt a módot, ahogyan a VMware az elmúlt években jelentős hatékonyságjavulást hozott a kiszolgálói CPU-k maximális kapacitásra való kihasználásában, most új innovációk jelennek meg, amelyek optimalizálják a GPU-használat hatékonyságát az AI számítási munkaterheléseihez. 

„Ha a CPU-k tetején futó szoftvercsomagra gondolunk, azt sok VMware-rel és virtualizációval építették” – magyarázza Dar. „A GPU-k viszonylag újak az adatközpontokban, és az AI és a virtualizáció szoftverei – mint pl NVIDIA AI Enterprise – ez is egy újabb fejlemény.” 

„Ezen a területen fejlett technológiát hozunk, olyan képességekkel, mint a frakcionált GPU, a munkahelyek cseréje és. lehetővé téve a munkaterhelések számára a GPU-k hatékony megosztását” – mondja Dar, hozzátéve, hogy további fejlesztéseket terveznek.

A Run:ai szorosan együttműködik az NVIDIA-val a GPU-k vállalati használatának javítása és egyszerűsítése érdekében. A legutóbbi együttműködés magában foglalja a többfelhős GPU rugalmasságának lehetővé tételét a felhőben GPU-kat használó vállalatok számára, valamint a NVIDIA Triton következtetés szerver szoftver a modellek éles üzembe helyezési folyamatának egyszerűsítésére.

Ahogyan a történelem során a jelentősebb újítások mélyreható hatást gyakoroltak az emberi fajra és a világra, Dar megjegyzi, hogy a mesterséges intelligencia erejét óvatosan kell kihasználni, hogy maximalizálják a lehetséges előnyöket, miközben kezelni kell a lehetséges hátrányokat. Összehasonlítja az AI-t a legősibb újítással: a tűzzel. 

„Olyan, mint a tűz, amely sok nagyszerű dolgot hozott, és megváltoztatta az emberi életeket. A tűz veszélyt is hozott. Tehát az emberi lények megértették, hogyan kell együtt élni a tűzzel” – mondja Dar. „Azt hiszem, ez manapság az AI-ban is megtalálható.” 

Támogató: Run:ai.

Időbélyeg:

Még több A regisztráció