Fod AI-ilden med centralisering PlatoBlockchain Data Intelligence. Lodret søgning. Ai.

Fodre AI-ilden med centralisering

Sponsoreret funktion En lind strøm af revolutionære teknologier og opdagelser – brand, landbrug, hjulet, trykpressen og internettet, for blot at nævne nogle få – har dybt formet menneskelig udvikling og civilisation. Og den innovationscyklus fortsætter med kunstig intelligens (AI). 

Analysefirmaet IDC er gået så langt som at konkludere, at AI virkelig er svaret på næsten "alt". Rasmus Andsbjerg, associate vice president, data and analytics hos IDC siger: "Virkeligheden er, at AI tilbyder løsninger på alt, hvad vi står over for i øjeblikket. AI kan være en kilde til hurtige digitale transformationsrejser, muliggøre omkostningsbesparelser i tider med svimlende inflationsrater og understøtte automatiseringsindsats i tider med mangel på arbejdskraft."

Helt sikkert, og på tværs af alle brancher og funktioner, begynder slutbrugerorganisationer at opdage fordelene ved AI, efterhånden som stadig mere kraftfulde algoritmer og underliggende infrastruktur dukker op for at muliggøre bedre beslutningstagning og højere produktivitet. 

Verdensomspændende indtægter for markedet for kunstig intelligens (AI), inklusive tilhørende software, hardware og tjenester til både AI-centrerede og AI-ikke-centrerede applikationer, udgjorde i alt 383.3 milliarder USD i 2021. Det var en stigning på 20.7 % i forhold til det foregående år, ifølge de fleste nylig International Data Corporation (IDC) Worldwide Semiannual Artificial Intelligence Tracker.

På samme måde viser implementeringen af ​​AI-software til skyen stadig vækst. IDC forventer, at cloud-versioner af nyindkøbt AI-software vil overgå lokale implementeringer i 2022.

Himlen er grænsen for AI

Dr. Ronen Dar, teknologichef for AI-specialisten Run:ai, som har skabt en computerstyringsplatform for AI, mener, at himlen er grænsen for den spirende virksomheds AI-sektor. 

"AI er et marked, som vi ser vokser meget hurtigt. Og hvad angår virksomheder, ser vi efterspørgsel og adoption af machine learning og AI. Og jeg tror lige nu, at der er en ny teknologi her, som bringer nye muligheder, der kommer til at ændre verden; som kommer til at revolutionere virksomheder,” bemærker Dar. 

Der er også en stadig mere klar forståelse af behovet for at begynde at udforske og eksperimentere med AI og forstå, hvordan man integrerer AI i forretningsmodeller.

Dar mener, at AI kan give "fantastiske fordele" for at forbedre eksisterende virksomheds forretningsprocesser: "Med hensyn til at optimere og bevise den nuværende forretning ser vi mange use cases omkring AI og machine learning, som forbedrer driften, og hvordan beslutninger træffes omkring udbud og efterspørgsel.”

Han påpeger, at nye deep learning-modeller baseret på neurale netværk kan forbedre processer, beslutningstagning og nøjagtigheden af ​​kritiske forretningsprocesser, såsom afsløring af svindel i finanssektoren. Sundhedspleje er en anden sektor, hvor potentialet for kunstig intelligens er "enormt", især med hensyn til at hjælpe læger med at træffe bedre kliniske beslutninger og hjælpe med at opdage og udvikle nye lægemidler. 

Og ser man længere frem forudsiger Dar, at AI-teknologi vil hjælpe med at levere helt nye kommercielle muligheder, som ikke eksisterer i øjeblikket i sektorer som selvkørende køretøjer og fordybende spil. 

Infrastrukturforhindringer at overvinde

På trods af det åbenlyse potentiale for kunstig intelligens og maskinlæring i virksomheden, erkender Dar, at kommerciel udrulning af kunstig intelligens holdes tilbage af problemer omkring levering af infrastruktur. Han råder til, at virksomheder skal se på den måde, hvorpå AI kommer ind i en organisation i første omgang.

Typisk involverer dette en ukoordineret, afdeling-for-afdeling-proces, der ser, at forskellige teams klargør teknologi og ressourcer uafhængigt, hvilket fører til silede implementeringer. IT kan ikke effektivt kontrollere disse ad hoc-projekter og har ikke overblik over, hvad der foregår. Og dette gør det svært, hvis ikke umuligt, at beregne ROI på AI-infrastrukturudgifterne. 

"Det er det klassiske problem: dengang var det skygge-IT, og nu er det skygge-AI," siger Dar. 

Derudover er den avancerede infrastruktur, der er nødvendig for AI/ML, en investering, da virksomheder har brug for kraftfuld GPU-accelereret computerhardware til at behandle meget komplekse data og til at træne modeller. 

"AI-teams har brug for en masse computerkraft for at træne modeller, typisk ved hjælp af GPU'er, som er førsteklasses datacenterressourcer, der kan lukkes og ikke bruges effektivt," siger Dar. "Det kan helt sikkert resultere i, at mange penge bliver spildt." 

Den tilstødte infrastruktur kan f.eks. resultere i mindre end 10 % udnyttelsesgrad.

Ifølge Run:ai meningsmåling, 2021 State of AI Infrastructure Survey, offentliggjort i oktober 2021, sagde 87 procent af de adspurgte, at de oplever et vist niveau af problemer med GPU/computerressourceallokering, hvor 12 procent sagde, at dette sker ofte. Som et resultat rapporterede 83 procent af de adspurgte virksomheder, at de ikke fuldt ud udnyttede deres GPU og AI hardware. Faktisk angav næsten to tredjedele (61 procent) deres GPU og AI-hardware for det meste er på "moderat" udnyttelsesniveau.

Centraliseringen af ​​AI

For at løse disse problemer går Dar ind for at centralisere leveringen af ​​AI-ressourcer. Run:AI har udviklet en computerstyringsplatform til AI, der gør netop dette, centraliserer og virtualiserer GPU-beregningsressourcen. Ved at samle GPU'er i et enkelt virtuelt lag og automatisere arbejdsbelastningsplanlægning for 100 procent udnyttelse, giver denne tilgang fordele sammenlignet med siled systemer på afdelingsniveau. 

Centralisering af infrastrukturen giver tilbage kontrol og synlighed, samtidig med at dataforskere frigøres fra de overordnede omkostninger ved at administrere infrastrukturen. AI-teams deler en universel AI-beregningsressource, som dynamisk kan ringes op og ned, når efterspørgslen stiger eller falder, hvilket eliminerer efterspørgselsflaskehalse og perioder med underudnyttelse. 

Denne tilgang, hævder Dar, kan hjælpe organisationer med at få mest muligt ud af deres hardware og frigøre dataforskere fra begrænsningerne af underliggende ressourcebegrænsning. Alt dette betyder, at de kan køre flere job og bringe flere AI-modeller i produktion. 

Et eksempel er givet fra London Medical Imaging & Artificial Intelligence Centre for Value Based Healthcare, ledet af King's College London og baseret på St. Thomas' Hospital. Den bruger medicinske billeder og elektroniske sundhedsdata til at træne sofistikerede deep learning-algoritmer til computersyn og behandling af naturligt sprog. Disse algoritmer bruges til at skabe nye værktøjer til effektiv screening, hurtigere diagnose og tilpassede terapier.

Centret indså, at dets gamle AI-infrastruktur led af effektivitetsproblemer: Den samlede GPU-udnyttelse var under 30 procent med "betydelige" inaktive perioder for nogle komponenter. Efter at have flyttet for at løse disse problemer ved at indføre en centraliseret AI-beregnings-forsyningsmodel baseret på Run:ai's platform, steg dens GPU-udnyttelse med 110 procent, med parallelle forbedringer i eksperimenthastighed og overordnet forskningseffektivitet.

"Vores eksperimenter kan tage dage eller minutter, ved at bruge en strøm af computerkraft eller en hel klynge," siger Dr. M. Jorge Cardoso, lektor og lektor i AI ved King's College London og CTO for AI Centre. "Ved at reducere tiden til resultater sikrer vi, at vi kan stille og besvare flere kritiske spørgsmål om folks helbred og liv," 

Centralisering af AI GPU-ressourcer gav også værdifulde kommercielle fordele til Wayve, et London-baseret firma, der udvikler AI-software til selvkørende biler. Dens teknologi er designet til ikke at være afhængig af sansning, men fokuserer i stedet på større intelligens, for bedre autonom kørsel i tætte byområder.

Wayves Fleet Learning Loop involverer en kontinuerlig cyklus af dataindsamling, kuration, træning af modeller, re-simulering og licenseringsmodeller før implementering i flåden. Virksomhedens primære GPU-beregningsforbrug kommer fra Fleet Learning Loop-produktionstræningen. Det træner produktets basislinje med det fulde datasæt og genoptræner løbende for at indsamle nye data gennem gentagelser af flådens læringsløjfe.

Virksomheden begyndte at indse, at det led af GPU-planlægnings "rædsel": Selvom næsten 100 procent af dets tilgængelige GPU-ressourcer blev allokeret til forskere, blev mindre end 45 procent brugt, da testen oprindeligt blev udført. 

"Fordi GPU'er blev statisk tildelt forskere, når forskere ikke brugte deres tildelte GPU'er, kunne andre ikke få adgang til dem, hvilket skabte illusionen om, at GPU'er til modeltræning havde kapacitet, selvom mange GPU'er sad inaktive", bemærker Wayve. 

Arbejdet med Run:ai tacklede dette problem ved at fjerne siloer og eliminere statisk allokering af ressourcer. Der blev oprettet puljer af delte GPU'er, så teams kunne få adgang til flere GPU'er og køre flere arbejdsbelastninger, hvilket førte til en 35% forbedring af deres udnyttelse. 

Spejl CPU-effektivitetsforbedringer

Som afspejler den måde, hvorpå VMware har bragt væsentlige effektivitetsforbedringer til, hvordan server-CPU'er bliver brugt til maksimal kapacitet i løbet af de seneste år, kommer nye innovationer nu på vej for at optimere effektiviteten af ​​GPU-udnyttelsen til AI-beregningsarbejdsbelastninger. 

"Hvis du tænker på softwarestakken, der kører oven på CPU'er, er den bygget med en masse VMware og virtualisering," forklarer Dar. “GPU’er er relativt nyt i datacentret, og software til AI og virtualisering – som f.eks NVIDIA AI Enterprise – er også en nyere udvikling." 

"Vi bringer avanceret teknologi på det område med funktioner som fraktioneret GPU, jobbytte og. giver arbejdsbelastninger mulighed for effektivt at dele GPU'er,” siger Dar og tilføjer, at yderligere forbedringer er ved at blive planlagt.

Run:ai arbejder tæt sammen med NVIDIA for at forbedre og forenkle brugen af ​​GPU'er i virksomheden. Det seneste samarbejde omfatter mulighed for multi-cloud GPU-fleksibilitet for virksomheder, der bruger GPU'er i skyen, og integration med NVIDIA Triton Inference Server software til at forenkle processen med at implementere modeller i produktionen.

På den måde, som store innovationer i løbet af historien har haft dybtgående indvirkning på menneskeheden og verden, bemærker Dar, at AI-kraften skal udnyttes med omhu for at maksimere dens potentielle fordele, samtidig med at potentielle ulemper håndteres. Han sammenligner kunstig intelligens med den mest oprindelige innovation af alle: ild. 

"Det er som ild, der bragte en masse store ting og ændrede menneskeliv. Brand bragte også fare. Så mennesker forstod, hvordan man lever med ild,” siger Dar. "Jeg tror, ​​det også er her i AI i disse dage." 

Sponsoreret af Run:ai.

Tidsstempel:

Mere fra Registret