Tekoälyn avulla sinun on nähtävä suurempi laitteisto- ja ohjelmistokuva PlatoBlockchain Data Intelligencesta. Pystysuuntainen haku. Ai.

Tekoälyn avulla sinun täytyy nähdä laajempi laitteisto- ja ohjelmistokuva

Sponsoroitu ominaisuus On kulunut puolitoista vuosikymmentä siitä, kun tutkijat häikäisivät teknologiamaailmaa osoittamalla, että graafisia prosessointiyksiköitä voidaan käyttää nopeuttamaan dramaattisesti keskeisiä tekoälytoimintoja.

Tämä oivallus painaa edelleen yritysten mielikuvitusta. IDC on raportoinut, että infrastruktuurin suhteen GPU-kiihdytetty laskenta ja HPC:n kaltainen skaalautuminen ovat teknologiajohtajien ja arkkitehtien tärkeimpiä näkökohtia, jotka haluavat rakentaa tekoälyinfrastruktuuriaan.

Mutta kaikilla organisaatioilla, jotka ovat menestyksekkäästi soveltaneet tekoälyä todellisen maailman ongelmiin, monet muut kamppailevat päästäkseen kokeilu- tai pilottivaiheen ulkopuolelle. IDC:n vuoden 2021 tutkimus havaitsi, että alle kolmasosa vastaajista oli siirtänyt tekoälyprojektinsa tuotantoon, ja vain kolmasosa oli saavuttanut "kypsän tuotantovaiheen".

Mainittuja esteitä ovat ongelmat tietojen käsittelyssä ja valmistelussa sekä infrastruktuurin parantaminen tukemaan tekoälyä yritystasolla. Yritysten oli investoitava "tarkoituksenmukaiseen ja oikeankokoiseen infrastruktuuriin", IDC sanoi.

Mikä AI-ongelma tässä on?

Joten missä nämä organisaatiot ovat menossa pieleen tekoälyn kanssa? Yksi tekijä saattaa olla se, että teknologiajohtajat ja tekoälyasiantuntijat eivät pysty ottamaan kokonaisvaltaista näkemystä laajempaan tekoälyprosessiin kiinnittäessään liikaa huomiota grafiikkasuorituksiin verrattuna muihin laskentamoottoreihin, erityisesti kunnioitettavaan prosessoriin.

Koska loppujen lopuksi kyseessä ei ole prosessorien ja GPU:iden tukeminen ASIC:ien kanssa. Pikemminkin kyse on optimaalisen tavan rakentamisesta tekoälyputkeen, joka voi viedä sinut ideoista ja tiedoista sekä mallin rakentamisesta käyttöönottoon ja päätelmiin. Ja tämä tarkoittaa eri prosessoriarkkitehtuurien vahvuuksien arvostamista, jotta voit käyttää oikeaa laskentakonetta oikeaan aikaan.

Intelin Datacenter AI Strategy and Execution -yksikön vanhempi johtaja Shardul Brahmbhatt selittää: "CPU:ta on käytetty mikropalveluissa ja perinteisissä laskentatapauksissa pilvessä. Grafiikkasuorittimia on käytetty rinnakkaislaskennassa, kuten median suoratoistossa, pelaamisessa ja tekoälyn työkuormissa."

Joten kun hyperskaalaajat ja muut pilvipelaajat ovat kiinnittäneet huomionsa tekoälyyn, on käynyt selväksi, että he käyttävät samoja vahvuuksia eri tehtäviin.

GPU:iden rinnakkaislaskennan ominaisuudet tekevät niistä erittäin sopivia esimerkiksi tekoälyalgoritmien harjoittamiseen. Samaan aikaan suorittimilla on etulyöntiaseman pienen erän, matalan viiveen reaaliaikaisessa päättelyssä ja näiden algoritmien käyttämisessä live-tietojen analysointiin ja tulosten ja ennusteiden tuottamiseen.

Jälleen on varoituksia, Brahmbhatt selittää: "On paikkoja, joissa haluat tehdä enemmän eräpäätelmiä. Ja tämä eräpäätelmä on myös jotain, joka tehdään GPU:iden tai ASIC:ien kautta."

Katse putkeen

Mutta tekoälyprosessi ulottuu koulutusta ja päätelmiä pidemmälle. Liukuhihnan vasemmalla puolella tiedot on esikäsiteltävä ja algoritmeja kehitettävä. Yleisellä CPU:lla on tässä tärkeä rooli.

Itse asiassa grafiikkasuorittimet muodostavat suhteellisen pienen osan prosessorien kokonaistoiminnasta AI-putkistossa, ja prosessorikäyttöisten "datavaiheen" työkuormien osuus on Intelin mukaan kaksi kolmasosaa (voit lukea ratkaisuehdotuksen - Optimoi päättely Intel CPU -tekniikalla täällä).

Ja Brahmbhatt muistuttaa, että CPU-arkkitehtuurilla on muita etuja, mukaan lukien ohjelmoitavuus.

"Koska prosessoreita on käytetty niin laajasti, saatavilla on jo olemassa oleva kehittäjien ja sovellusten ekosysteemi sekä työkaluja, jotka tarjoavat helppokäyttöisyyden ja ohjelmoitavuuden yleiseen laskemiseen", hän sanoo.

"Toiseksi suorittimet tarjoavat nopeamman pääsyn suurempaan muistitilaan. Ja sitten kolmas asia on se, että laskenta on enemmän jäsenneltyä kuin GPU:t [jotka] ovat enemmän rinnakkaisia. Näistä syistä prosessorit toimivat datan siirtäjinä, jotka syöttävät grafiikkasuoritteita ja auttavat siten Recommender System -malleissa sekä kehittyvissä työkuormissa, kuten Graph Neural Networks.

Avoin suunnitelma tekoälyn kehittämiseen

Miten meidän pitäisi siis tarkastella prosessorien ja grafiikkasuorittimien rooleja, kun suunnittelemme tekoälyn kehitysputkia, olipa kyseessä sitten paikan päällä, pilvessä tai molempien välillä?

GPU:t mullistivat tekoälykehityksen, koska ne tarjosivat kiihdytysmenetelmän, joka purkaa toiminnot suorittimesta. Mutta siitä ei seuraa, että tämä olisi järkevin vaihtoehto tietylle työlle.

Kuten Intelin alustan arkkitehti Sharath Raghava selittää "AI-sovelluksissa on vektorisoituja laskelmia. Vektorilaskelmat ovat rinnakkaisia. AI-työkuormien suorittamiseksi tehokkaasti voitaisiin hyödyntää suorittimen ja grafiikkasuorittimen ominaisuuksia ottaen huomioon vektorilaskennan koon, purkamisviiveen, rinnastettavuuden ja monet muut tekijät. Mutta hän jatkaa, "pienemmässä" tehtävässä purkamisen "kustannukset" ovat kohtuuttomia, eikä sitä välttämättä ole järkevää käyttää grafiikkasuorittimella tai kiihdytinellä.

Suorittimet voivat myös hyötyä tiiviimmästä integraatiosta muiden järjestelmäkomponenttien kanssa, mikä mahdollistaa niiden suorittamisen tekoälytyön nopeammin. Maksimaalisen arvon saaminen tekoälyn käyttöönotoista edellyttää muutakin kuin pelkkien mallien käyttämistä – tavoiteltu näkemys riippuu tehokkaasta esikäsittelystä, päättelystä ja jälkikäsittelystä. Esikäsittely edellyttää, että tiedot on valmisteltu vastaamaan opetetun mallin syöttöodotuksia, ennen kuin se syötetään päätelmien luomiseen. Hyödyllinen tieto poimitaan sitten päättelytuloksista jälkikäsittelyvaiheessa.

Jos ajattelemme esimerkiksi datakeskuksen tunkeutumisen havainnointijärjestelmää (IDS), on tärkeää toimia mallin lähtöön, jotta kyberhyökkäyksen aiheuttamat vahingot suojataan ja estetään ajoissa. Ja tyypillisesti esi- ja jälkikäsittelyvaiheet ovat tehokkaampia, kun ne suoritetaan isäntäjärjestelmän prosessoreilla, koska ne integroituvat tiiviimmin muun arkkitehtonisen ekosysteemin kanssa.

Suorituskyvyn parantaminen aloitustilausten perusteella

Tarkoittaako tämä siis GPU-kiihdytyksen eduista luopumista kokonaan? Ei välttämättä. Intel on rakentanut tekoälykiihdytystä Xeon Scalable -suorittimiinsa muutaman vuoden ajan. Valikoima sisältää jo Deep Learning Boost -ominaisuuden, joka mahdollistaa tehokkaan päättelyn syväoppimismalleissa, kun taas Intelin Advanced Vector Extensions 512 (AVX 512) ja Vector Neural Network Extensions (VNNI) nopeuttavat INT8:n päättelykykyä. Mutta DL Boost käyttää myös brain floating point -muotoa (BF16) tehostaakseen suorituskykyä harjoituskuormilla, jotka eivät vaadi suurta tarkkuutta.

Intelin tulevat neljännen sukupolven Xeon Scalable -suorittimet lisäävät edistyneen matriisikertomisen eli AMX:n. Tämä antaa vielä 8-kertaisen tehosteen verrattuna Intelin laskelmien mukaan aiemmissa prosessoreissa toteutettuihin AVX-512 VNNI x86 -laajennuksiin ja mahdollistaa 4. sukupolven Intel Xeon Scalable -prosessorien "käsitellä harjoitustyökuormia ja DL-algoritmeja kuten GPU". Mutta samoja kiihdyttimiä voidaan soveltaa myös yleiseen prosessorin laskentaan tekoälyn ja ei-AI-työkuormien osalta.

Tämä ei tarkoita, että Intel odottaa tekoälyputkien olevan x86 alusta loppuun. Kun on järkevämpää kuormittaa täysin rinnakkaisuudesta hyötyvät harjoitustyöt, Intel tarjoaa Habana Gaudi AI -harjoitusprosessorin. Vertailutestit viittaavat siihen, että jälkimmäinen tehostaa Amazon EC2 DL1 -esiintymiä, jotka voivat tarjota jopa 40 prosenttia paremman hinta-suorituskyvyn kuin vastaavat pilvessä isännöidyt Nvidian GPU-pohjaiset koulutusesiintymät.

Samaan aikaan Intelin Data Center GPU Flex -sarja on suunnattu työkuormille ja toimintoihin, jotka hyötyvät rinnakkaisuudesta, kuten tekoälyn päättelystä, ja erilaisia ​​toteutuksia on asetettu "kevyemmille" ja monimutkaisemmille tekoälymalleille. Toinen Intel® Data Center -grafiikkasuoritin, koodinimeltään Ponte Vecchio (PVC), alkaa pian käyttää Aurora-supertietokonetta Argonnen kansallisessa laboratoriossa.

Voimmeko mennä päästä loppuun?

Mahdollisesti Intelin pii voi siis tukea koko AI-putkistoa samalla, kun se minimoi tarpeen siirtää tietoja tarpeettomasti eri laskentakoneiden välillä. Yrityksen prosessorit – olivatpa ne sitten GPU:ta tai CPU:ta – tukevat myös yleistä ohjelmistomallia, joka perustuu avoimen lähdekoodin työkaluihin ja kehyksiin Intel-optimoinneilla OneAPI-ohjelman kautta.

Toisena etuna Brahmbhatt mainitsee Intelin perinteen yhteisöön ja avoimeen lähdekoodiin perustuvan x86-ohjelmistoekosysteemin rakentamisessa. "Intelin filosofia on... "Anna ekosysteemin ohjata käyttöönottoa". Ja meidän on varmistettava, että olemme oikeudenmukaisia ​​ja avoimia ekosysteemille, ja toimitamme kaikki salaisuutemme takaisin ekosysteemille."

"Käytämme yhteistä ohjelmistopinoa varmistaaksemme, että kehittäjien ei tarvitse huolehtia IP:n eroista prosessorin ja GPU:n välillä tekoälyä varten."

Tämä yhteisen ohjelmistopinon ja keskittymisen oikean laskentakoneen käyttämiseen oikeaan tehtävään yhdistelmä on entistä tärkeämpi yrityksessä. Yritykset luottavat tekoälyyn auttamaan niitä ratkaisemaan jotkin kiireellisimmistä ongelmistaan, joko pilvessä tai premissä. Mutta sekatyökuormat vaativat täydellisen ohjelmiston sekä järjestelmäpinon ylläpidon ja hallinnan, jotta voidaan suorittaa koodi, joka ei sisälly kiihdyttimessä olevaan ytimeen.

Joten kun on kyse vastauksesta kysymykseen "miten saamme tekoälyn yrityksen mittakaavassa", vastaus saattaa riippua siitä, että tarkastellaan isompaa kuvaa ja varmistamme, että käytät kaikkia käytettävissäsi olevia laitteisto- ja ohjelmistopaketteja.

Intelin sponsoroima.

Aikaleima:

Lisää aiheesta Rekisteri