Syötä tekoälyn tulipalo keskitetyllä PlatoBlockchain Data Intelligencellä. Pystysuuntainen haku. Ai.

Syötä tekoälyn tulta keskityksellä

Sponsoroitu ominaisuus Vallankumouksellisten teknologioiden ja löytöjen tasainen virta – tulipalo, maatalous, pyörä, painokone ja internet, vain muutamia mainitakseni – ovat muokanneet syvällisesti ihmisen kehitystä ja sivilisaatiota. Ja tämä innovaatiosykli jatkuu tekoälyn (AI) kanssa. 

Tutkimusyhtiö IDC on mennyt niin pitkälle, että se on päätellyt, että tekoäly on todella vastaus melkein "kaikkeen". Rasmus Andsbjerg, IDC:n data- ja analytiikan apulaisjohtaja, sanoo: "Todellisuus on, että tekoäly tarjoaa ratkaisuja kaikkeen, mitä kohtaamme tällä hetkellä. Tekoäly voi olla lähde nopeutettuihin digitaalisiin muutosmatkoihin, mahdollistaa kustannussäästöjä ällistyttävän inflaation aikoina ja tukea automaatiopyrkimyksiä työvoimapulan aikoina.

Varmasti, ja kaikilla toimialoilla ja toiminnoilla, loppukäyttäjäorganisaatiot alkavat havaita tekoälyn edut, kun yhä tehokkaampia algoritmeja ja taustalla olevaa infrastruktuuria syntyy, mikä mahdollistaa paremman päätöksenteon ja korkeamman tuottavuuden. 

Tekoälymarkkinoiden maailmanlaajuiset tulot, mukaan lukien niihin liittyvät ohjelmistot, laitteistot ja palvelut sekä tekoälykeskeisiin että ei-keskeisiin sovelluksiin, olivat 383.3 miljardia dollaria vuonna 2021. Se oli 20.7 % enemmän kuin edellisenä vuonna. viimeaikainen International Data Corporation (IDC) maailmanlaajuinen puolivuosittainen tekoälyn seurantalaite.

Samoin tekoälyohjelmiston käyttöönotto pilvessä jatkaa tasaista kasvua. IDC odottaa, että äskettäin ostettujen tekoälyohjelmistojen pilviversiot ylittävät paikalliset käyttöönotot vuonna 2022.

Taivas on tekoälyn rajana

Tohtori Ronen Dar, tekoälyn hallinta-alustan luoneen tekoälyn asiantuntija Run:ai:n teknologiajohtaja uskoo, että taivas on rajana syntymässä olevalle yritysten tekoälysektorille. 

”Tekoäly on markkina, jonka näemme kasvavan erittäin nopeasti. Yritysten osalta näemme koneoppimisen ja tekoälyn kysyntää ja käyttöönottoa. Ja luulen, että juuri nyt täällä on uusi teknologia, joka tuo uusia ominaisuuksia, jotka muuttavat maailmaa; jotka tulevat mullistamaan yritykset”, Dar huomauttaa. 

Yhä selkeämmin ymmärretään myös tarve aloittaa tekoälyn tutkiminen ja kokeilu ja ymmärtää, kuinka tekoäly voidaan integroida liiketoimintamalleihin.

Dar uskoo, että tekoäly voi tuoda "hämmästyksellisiä etuja" olemassa olevien yritysten liiketoimintaprosessien parantamiseen: "Nykyisen liiketoiminnan optimoinnissa ja todistamisessa näemme paljon tekoälyn ja koneoppimisen käyttötapauksia, jotka parantavat toimintaa ja päätösten tekoa. kysynnän ja tarjonnan ympärillä."

Hän huomauttaa, että uudet neuroverkkoihin perustuvat syväoppimismallit voivat parantaa prosesseja, päätöksentekoa ja kriittisten liiketoimintaprosessien, kuten petosten havaitsemisen, tarkkuutta finanssipalvelualalla. Terveydenhuolto on toinen ala, jolla tekoälyn potentiaali on "valtava", erityisesti lääkäreiden auttamiseksi tekemään parempia kliinisiä päätöksiä ja uusien lääkkeiden löytämisessä ja kehittämisessä. 

Ja pidemmälle tulevaisuuteen katsoen Dar ennustaa, että tekoälyteknologia auttaa tarjoamaan upouusia kaupallisia mahdollisuuksia, joita ei tällä hetkellä ole sellaisilla aloilla kuin itseohjautuvat ajoneuvot ja mukaansatempaava pelaaminen. 

Infrastruktuurin esteet voitettavana

Huolimatta yrityksen ilmeisistä tekoälyn ja koneoppimisen mahdollisuuksista, Dar myöntää, että infrastruktuurin tarjoamiseen liittyvät ongelmat estävät tekoälyn kaupallista käyttöönottoa. Hän neuvoo, että yritysten on ensin tarkasteltava tapaa, jolla tekoäly pääsee organisaatioon.

Yleensä tämä tarkoittaa koordinoimatonta, osastokohtaista prosessia, jossa eri tiimit valmistavat teknologiaa ja resursseja itsenäisesti, mikä johtaa hylättyihin käyttöönottoihin. IT ei voi tehokkaasti hallita näitä ad hoc -projekteja, eikä sillä ole näkyvyyttä siitä, mitä tapahtuu. Tämä tekee tekoälyinfrastruktuurin sijoitetun pääoman tuottoprosentin laskemisesta vaikeaa, ellei mahdotonta. 

"Se on klassinen ongelma: aikoinaan se oli varjo-IT ja nyt varjo-AI", Dar sanoo. 

Lisäksi AI/ML:n vaatima huippuluokan infrastruktuuri on investointi, sillä yritykset tarvitsevat tehokkaan GPU-kiihdytetyn laskentalaitteiston erittäin monimutkaisten tietojen käsittelyyn ja mallien kouluttamiseen. 

"Tekoälytiimit tarvitsevat paljon laskentatehoa mallien kouluttamiseen, joissa käytetään tyypillisesti GPU:ita, jotka ovat huippuluokan datakeskuksen resursseja, joita voidaan hiljentää ja joita ei voida käyttää tehokkaasti", Dar sanoo. "Se voi varmasti johtaa siihen, että paljon rahaa menee hukkaan." 

Tämä siledä infrastruktuuri voi johtaa esimerkiksi alle 10 %:n käyttöasteeseen.

Run:ai -kyselyn mukaan 2021 State of AI Infrastructure Survey, julkaistiin lokakuussa 2021, 87 prosenttia vastaajista sanoi, että heillä on jonkin verran GPU-/laskentaresurssien allokointiongelmia, ja 12 prosenttia sanoi, että näin tapahtuu usein. Tämän seurauksena 83 prosenttia kyselyyn vastanneista yrityksistä ilmoitti, että he eivät käyttäneet täysin GPU- ja tekoälylaitteistojaan. Itse asiassa lähes kaksi kolmasosaa (61 prosenttia) ilmoitti, että heidän GPU- ja tekoälylaitteistonsa ovat enimmäkseen "kohtalaisella" käyttöasteella.

Tekoälyn keskittäminen

Näiden ongelmien ratkaisemiseksi Dar kannattaa tekoälyresurssien tarjoamisen keskittämistä. Run:AI on kehittänyt tekoälylle laskennan hallintaalustan, joka tekee juuri tämän, keskittää ja virtualisoi GPU-laskentaresurssin. Yhdistämällä grafiikkasuorittimet yhdeksi virtuaaliseksi kerrokseksi ja automatisoimalla työkuorman ajoituksen 100 prosentin käyttöasteen saavuttamiseksi tämä lähestymistapa tarjoaa etuja osastotason siled-järjestelmiin verrattuna. 

Infrastruktuurin keskittäminen palauttaa hallinnan ja näkyvyyden ja vapauttaa datatutkijat infrastruktuurin hallinnan ylimääräisistä kustannuksista. Tekoälytiimeillä on yhteinen universaali tekoälylaskentaresurssi, jota voidaan dynaamisesti soittaa ylös ja alas kysynnän kasvaessa tai vähentyessä, mikä eliminoi kysynnän pullonkaulat ja alikäyttöjaksot. 

Dar väittää, että tämä lähestymistapa voi auttaa organisaatioita saamaan kaiken irti laitteistostaan ​​ja vapauttamaan datatieteilijät taustalla olevien resurssien rajoittamisen rajoituksista. Kaikki tämä tarkoittaa, että he voivat suorittaa enemmän töitä ja tuoda enemmän tekoälymalleja tuotantoon. 

Esimerkki löytyy London Medical Imaging & Artificial Intelligence Center for Value Based Healthcare -keskuksesta, jota johtaa King's College London ja joka sijaitsee St. Thomasin sairaalassa. Se käyttää lääketieteellisiä kuvia ja sähköisiä terveydenhuollon tietoja kouluttaakseen kehittyneitä syväoppimisalgoritmeja tietokonenäön ja luonnollisen kielen käsittelyyn. Näitä algoritmeja käytetään uusien työkalujen luomiseen tehokkaaseen seulontaan, nopeampaan diagnoosiin ja yksilöllisiin hoitoihin.

Keskus ymmärsi, että sen vanha tekoälyinfrastruktuuri kärsi tehokkuusongelmista: GPU:n kokonaiskäyttöaste oli alle 30 prosenttia ja joidenkin komponenttien käyttämättömyydet olivat "merkittäviä". Sen jälkeen, kun näitä ongelmia on siirretty käsittelemään ottamalla käyttöön keskitetty tekoälyn laskentamalli, joka perustuu Run:ai:n alustaan, sen GPU-käyttöaste nousi 110 prosenttia, ja samalla parannuksia kokeen nopeuteen ja yleiseen tutkimuksen tehokkuuteen.

"Kokeilumme voivat kestää päiviä tai minuutteja, kun käytetään laskentatehoa tai kokonaista klusteria", sanoo tohtori M. Jorge Cardoso, apulaisprofessori ja tekoälyn vanhempi luennoitsija King's Collegessa Lontoossa ja tekoälykeskuksen teknologiajohtaja. "Tulosten saavuttamiseen kuluvan ajan lyhentäminen varmistaa, että voimme kysyä ja vastata kriittisempiin kysymyksiin ihmisten terveydestä ja elämästä." 

Tekoälyn GPU-resurssien keskittäminen toi myös arvokkaita kaupallisia etuja Wayvelle, Lontoossa sijaitsevalle yritykselle, joka kehittää tekoälyohjelmistoja itseajaviin autoihin. Sen tekniikka on suunniteltu olemaan riippuvainen tunnistamisesta, vaan keskittyy sen sijaan parempaan älykkyyteen parantaakseen autonomista ajoa tiheillä kaupunkialueilla.

Wayven Fleet Learning Loop sisältää jatkuvan tiedonkeruun, kuroinnin, mallien koulutuksen, uudelleensimuloinnin ja lisensointimallien syklin ennen käyttöönottoa laivastoon. Yrityksen ensisijainen GPU-laskennan kulutus tulee Fleet Learning Loop -tuotantokoulutuksesta. Se kouluttaa tuotteen perusviivaa täydellä tietojoukolla ja harjoittelee jatkuvasti uudelleen keräämään uutta tietoa kaluston oppimissilmukan iteraatioiden kautta.

Yritys alkoi ymmärtää kärsivänsä GPU-aikataulutuksen "kauhusta": vaikka lähes 100 prosenttia sen käytettävissä olevista GPU-resursseista osoitettiin tutkijoille, alle 45 prosenttia käytettiin testauksen alussa. 

"Koska GPU:t määrättiin staattisesti tutkijoille, kun tutkijat eivät käyttäneet heille määrättyjä GPU:ia, muut eivät voineet käyttää niitä, mikä loi illuusion, että mallikoulutukseen käytettävät GPU:t olivat täydessä kapasiteetissa, vaikka monet GPU:t olivat käyttämättömänä", Wayve huomauttaa. 

Työskentely Run:ai:n kanssa ratkaisi tämän ongelman poistamalla siilot ja eliminoimalla staattisen resurssien allokoinnin. Luotiin jaettujen grafiikkasuorittimien poolit, joiden avulla tiimit voivat käyttää enemmän GPU:ita ja suorittaa enemmän työkuormia, mikä johti 35 prosentin parannukseen niiden käyttöasteessa. 

Peilisuorittimen tehokkuuden parannukset

Peilaamalla tapaa, jolla VMware on tuonut huomattavia tehokkuusparannuksia siihen, miten palvelinsuorittimia käytetään maksimaaliseen kapasiteettiin viime vuosina, on nyt tulossa uusia innovaatioita, jotka optimoivat grafiikkasuorittimen käytön tehokkuutta tekoälyn laskentakuormituksissa. 

"Jos ajattelee ohjelmistopinoa, joka toimii suorittimien päällä, se on rakennettu paljon VMwarea ja virtualisointia käyttäen", Dar selittää. "GPU:t ovat suhteellisen uusia palvelinkeskuksissa, ja ohjelmistot tekoälyyn ja virtualisointiin - kuten esim NVIDIA AI Enterprise – Se on myös viimeaikainen kehitys. 

"Tuomme tälle alueelle kehittynyttä teknologiaa, jossa on ominaisuuksia, kuten murto-GPU, työnvaihto ja. mahdollistaa työkuormien tehokkaan jakamisen GPU:t”, Dar sanoo ja lisää, että lisäparannuksia suunnitellaan.

Run:ai tekee läheistä yhteistyötä NVIDIA:n kanssa parantaakseen ja yksinkertaistaakseen GPU:iden käyttöä yrityksessä. Viimeisin yhteistyö sisältää usean pilven GPU:n joustavuuden mahdollistamisen yrityksille, jotka käyttävät GPU:ta pilvessä, sekä integroinnin NVIDIA Triton Inference Server ohjelmisto yksinkertaistaa mallien käyttöönottoa tuotannossa.

Tapa, jolla historian mittaan tehdyillä innovaatioilla on ollut syvällinen vaikutus ihmiskuntaan ja maailmaan, Dar huomauttaa, että tekoälyn voimaa on valjastettava huolellisesti sen mahdollisten hyötyjen maksimoimiseksi ja mahdollisten haittojen hallintaan. Hän vertaa tekoälyä kaikkein ikimuistoisimpaan innovaatioon: tuleen. 

”Se on kuin tuli, joka toi paljon hienoja asioita ja muutti ihmisten elämää. Tuli aiheutti myös vaaran. Joten ihmiset ymmärsivät kuinka elää tulen kanssa”, Dar sanoo. "Luulen, että tämä on myös täällä tekoälyssä näinä päivinä." 

Sponsorina Run:ai.

Aikaleima:

Lisää aiheesta Rekisteri