Sette AI-utfordringer i perspektiv med partnerskap

Sette AI-utfordringer i perspektiv med partnerskap

Setter AI-utfordringer i perspektiv med partnerskap PlatoBlockchain Data Intelligence. Vertikalt søk. Ai.

Sponset funksjon Etter hvert som teknologien blir mer utbredt i flere vertikale sektorer og bransjer, blir kapasiteten til kunstig intelligens (AI) til å transformere forretningsprosesser, strategiske beslutninger og kundeopplevelser hyllet av IT-strateger og økonomiske analytikere.

Selv administrerende direktører som en gang var forsiktige med å godkjenne investeringen AI trenger for å levere optimal verdi, begynner å innse potensialet for å forbedre operasjonell effektivitet og bane vei for nye inntektsstrømmer.

Prognoser fra ærverdige markedsovervåkere som PwC støtter deres syn. Det er 'Global kunstig intelligensstudie' regner med at AI kan bidra med opptil 15.7 billioner dollar til globale økonomier i 2030. Av dette kan 6.6 billioner dollar komme fra økt produktivitet og 9.1 billioner dollar kan komme fra "forbruksbivirkninger", hevder PwC.

Den nylige utrullingen av flere generative AI-verktøy anses som en avslapnings poeng for det som tidligere hadde vært en høyt spesialisert og 'futuristisk' gren av informatikk. I Storbritannia i 2022 Office for Artificial Intelligence rapportert at rundt 15 prosent av virksomhetene hadde tatt i bruk minst én AI-teknologi, noe som tilsvarer 432,000 2 selskaper. Rundt 10 prosent av virksomhetene piloterte AI, og 62,000 prosent planla å ta i bruk minst én AI-teknologi fremover (henholdsvis 292,000 XNUMX og XNUMX XNUMX virksomheter).

Det er fortsatt kompliserte greier

Midt i denne AI-gløden bør organisasjoner huske at AI fortsatt er en relativt ung teknologi, og det kan være utfordrende å sette opp for første gang. Dessuten er assosiert avkastning på investeringen (ROI) svært avhengig av svært nøyaktig administrerte implementeringsprosedyrer og konfigurasjoner som ofte er mindre robuste i møte med feil enn konvensjonelle IT-distribusjoner.

AI utgjør estimerte tester for IT-teamene som har i oppgave å implementere AI/Machine Learning-initiativer og arbeidsbelastninger, for eksempel, som kan inkludere å overvinne ferdighetshull og beregningsbegrensninger. De kan også innebære ressursavveininger med andre arbeidsbelastninger i bedriften som allerede bruker en felles IT-infrastruktur.

"AI er en reise, ikke en destinasjon - det handler ikke om å være klar for bruk eller automatisere prosesser bare for mer effektivitet," sier Matt Armstrong-Barnes, Chief Technology Officer for Artificial Intelligence hos Hewlett Packard Enterprise (HPE). "Snarere handler det om realisering av langsiktig verdi, muliggjør bedre resultater og erkjennelse av at AI krever en fundamentalt annerledes tilnærming til IT-distribusjon. For bedriftsteknologer er det en 360-graders allsidig læringskurve.»

Armstrong-Barnes sitt poeng er bevist av Deloittes siste 'State of AI i Enterprise' undersøkelse av globale bedriftsledere. Respondentene identifiserte en haug med utfordringer AI dukket opp i påfølgende faser av deres AI-implementeringsprosjekter. Å bevise AIs forretningsverdi var et problem som ble sitert av 37 prosent – ​​prosjekter kan vise seg å være kostbare, og en overbevisende forretningscase kan være vanskelig å validere når man står overfor investeringsbevisste styrer og C-Suite-ledere.

Oppskalering av disse AI-prosjektene over tid kan treffe ytterligere identifiserte hindringer, for eksempel håndtering av AI-relaterte risikoer (sitert av 50 prosent av de som deltar i Deloitte-undersøkelsen), mangel på executive buy-in (også 50 prosent) og mangel på vedlikehold eller løpende støtte (50 prosent igjen).

"Ganske forståelig må bedriftsledere være overbevist om at AI vil betale sin vei," sier Armstrong-Barnes. "Det er her det å jobbe fra begynnelsen med en teknisk partner som har vært involvert i utprøvde AI-implementeringer i mange år, hjelper til med å vinne saken. Dens merittliste vil gi troverdighet til prosjektforslag og bidra til å overbevise ledere om at AIs risikoer er like håndterbare som enhver annen IT-satsing.»

Og selv om teknologi og talent absolutt er nødvendig, er det like viktig å samkjøre et selskaps kultur, struktur og arbeidsmåter for å støtte bred AI-adopsjon, ifølge McKinsey, med særegne egenskaper som noen ganger fungerer som barrierer for AI-drevet endring.

"Hvis et selskap har relasjonsledere som er stolte av å være tilpasset kundenes behov, kan de avvise forestillingen om at en "maskin" kan ha bedre ideer om hva kundene vil ha og ignorere et AI-verktøys skreddersydde produktanbefalinger," foreslår McKinsey.

"Jeg konfererer ofte med HPE-kolleger og HPE-kunder om spekteret av utfordringer de møter med AI-distribusjon," rapporterer Armstrong-Barnes. «Noen vanlige bevisegenskaper dukker opp igjen og igjen. Den ene er en undervurdering av hvor fundamentalt forskjellige AI-implementeringer er fra tradisjonelle IT-implementeringer. Organisasjoner må distribuere AI på en primært annen måte enn IT-prosjektene de har implementert tidligere. Databehandling og skalering er vesentlig forskjellig for AI. Dette betyr at noen ganger må hardt vunnet teknisk erfaring læres på nytt.»

Tilbøyeligheten til å eksperimentere med AI-piloter før den distribueres direkte til en reell brukssak som støtter et presserende forretningsbehov, bør unngås, forklarer Armstrong-Barnes. «Prøv-før-du-kjøp-tilnærmingen virker rimelig – AI er kompleks og investeringshungrende,» forklarer han, «Men med AI replikerer ikke tørrkjøringer og testprosjekter egentlig utfordringene brukerorganisasjoner vil møte med en faktisk implementering . Det som begynner 'i laboratoriet' har en tendens til å bli i laboratoriet.»

I den andre enden av adopsjonsskalaen ser Armstrong-Barnes selskaper som prøver å bruke AI uansett hvor det kan brukes, selv der en applikasjon fungerer optimalt uten AI: "Taket her er – bare fordi du i AI har en massiv hammer, du bør da ikke se alt som en nøtt som skal knekkes.»

Mennesker og infrastruktur ikke lett tilgjengelig

Selv de mest avanserte AI-systemene har ennå ikke oppnådd total ende-til-ende-autonomi – de må trenes og finjusteres av menneskelig ekspertise. Dette representerer en ytterligere utfordring for AI-aspirantbedrifter: hvordan best kan man tilegne seg nødvendig kompetanse – omskoler eksisterende IT-personell? Rekruttere nye teammedlemmer med nødvendig AI-kunnskap? Eller utforske alternativer for å utsette behovet for AI-ekspertise til teknologipartnere?

McKinsey rapporter at AIs potensiale begrenses av mangel på dyktige talenter. Et typisk AI-prosjekt krever et svært dyktig team, inkludert en dataforsker, dataingeniør, ML-ingeniør, produktsjef og designer – og det er rett og slett ikke nok spesialister tilgjengelig til å besette alle de åpne jobbene.

"Vi ser at bedriftsteknologer generelt må oppgradere sine evner i fem viktige henseender," sier Armstrong-Barnes. "Prinsipielt ligger de innenfor områdene AI-ekspertise, IT-infrastruktur, dataadministrasjon, kompleksitetsstyring, og i mindre grad de nevnte kulturelle barrierene. Ingen av disse utfordringene er uoverkommelige gitt riktig tilnærming og partnerskapsstøtte.»

AI liker også superkraftig maskinvare å kjøre på. Tilveiebringelse av dataplattformer med høy ytelse fortsetter som en vedvarende utfordring fordi få organisasjoner ønsker – eller har råd til – å foreta de nødvendige investeringene i servereiendommene sine uten en påviselig økning i ROI-forhold.

"Når de planlegger AI-implementeringer, må IT-planleggere på et veldig tidlig stadium ta noen viktige beslutninger angående kjerneaktiveringsteknologien," sier Armstrong-Barnes. "Skal du for eksempel kjøpe den, bygge den - eller ta en hybrid tilnærming som omfatter elementer av begge deler?"

Den neste viktige avgjørelsen gjelder partnerskap. En avgjørende betingelse for vellykket AI-levering er at ingen kan klare det alene, påpeker Armstrong-Barnes: «Du trenger støtte fra teknologipartnere, og den beste måten å etablere disse partnerskapene på er gjennom et AI-økosystem. Tenk på et AI-økosystem som et støttende konsortia av ekspertise som, når de kommer sammen, vil gi deg tilgang til riktig kunnskap, data, AI-verktøy, teknologi og økonomi for å utvikle og operasjonalisere AI-arbeidet ditt."

Armstrong-Barnes legger til: «Kunder spør noen ganger hvordan HPE ble så erfaren i AI-brukstilfeller – forutså vi virkningen for mange år siden og begynte å forberede oss i god tid før markedet? Faktum er at vi så AIs innvirkning komme ikke for mange år, men for flere tiår siden, har etablert AI-sentre for fortreffelighet og økosystemer i lang tid, og har gjort strategiske oppkjøp for å øke vår eksisterende ekspertise i tråd med kundenes krav og vekstmuligheter.»

Ingen tog, ingen gevinst

En slik utvidelse er Determined AI, som ble en del av HPEs HPC- og AI-løsninger i 2021. Determined AIs åpen kildekode-programvare tar for seg det faktum at bygging og opplæring av optimaliserte modeller i stor skala er et krevende og kritisk stadium i ML-utviklingen – en som i økende grad krever at ikke-teknologer som analytikere, forskere og vitenskapsmenn tar på seg utfordringene til HPC.

Disse utfordringene inkluderer å sette opp og administrere en svært parallell programvarestabel og infrastruktur som spenner over spesialisert databehandling, datalagring, datastruktur og akseleratorkort.

"I tillegg må ML-eksponenter programmere, planlegge og trene modellene sine effektivt for å maksimere utnyttelsen av den spesialiserte infrastrukturen de har satt opp," sier Armstrong-Barnes, "som kan skape kompleksitet og redusere produktiviteten."

Disse oppgavene må selvfølgelig utføres med et strengt kompetansenivå som, selv med støtte fra overspente interne IT-team, ikke er lett å sikre.

Determined AIs åpne kildekodeplattform for opplæring i ML-modeller er designet for å lukke dette ressursgapet, noe som gjør det enkelt å sette opp, konfigurere, administrere og dele arbeidsstasjoner eller AI-klynger som kjører lokalt eller i skyen. Og på toppen av førsteklasses støtte inkluderer den funksjoner som avansert sikkerhet, overvåking og observerbarhetsverktøy – alt støttet av ekspertise fra HPE.

"Determined AI handler om å fjerne barrierer for bedrifter til å bygge og trene ML-modeller i skala og hastighet, for å realisere større verdi på kortere tid, med det nye HPE Machine Learning Development System," forklarer Armstrong-Barnes. "Disse egenskapene inkluderer ganske tekniske ting som er nødvendige for å optimalisere AI/Machine Learning-arbeidsbelastninger, som akseleratorplanlegging, feiltoleranse, høyhastighets parallell og distribuert opplæring av modeller, avansert hyperparameteroptimalisering og søk i nevrale arkitektur.

«Legg til det disiplinære oppgaver som reproduserbart samarbeid og metrikksporing – det er mye å holde på med. Med Determined AIs hjelp kan prosjektspesialister fokusere på innovasjon og raskere leveringstid.»

Flere HPC-ressurser og regulering spiller sin rolle

Kraften til HPC blir også i økende grad brukt til å trene og optimalisere AI-modeller, i tillegg til å kombinere med AI for å øke arbeidsbelastninger som modellering og simulering – lenge etablerte verktøy for å fremskynde tid til oppdagelse i sektorer på tvers av produksjonsindustrien.

Det globale HPC-markedet er satt for estimert vekst over resten av 2020-tallet. Mordor etterretning estimater verdien til 56.98 milliarder dollar i 2023, og forventer at den vil nå 96.79 milliarder dollar innen 2028 – en CAGR på 11.18 prosent over prognoseperioden.

"HPE har bygget HPC-infrastruktur i lang tid, og har nå en HPC-portefølje som inkluderer Exascale superdatamaskiner og tetthetsoptimaliserte dataplattformer. Noen av de største HPC-klyngene er bygget på HPE-innovasjon, sier Armstrong-Barnes. "HPE har uovertruffen ekspertise innen høyytelses maskinvareplattformer."

Med introduksjonen av HPE GreenLake for store språkmodeller tidligere i år (2023) kan bedrifter – fra startups til Fortune 500 – trene, tune og distribuere storskala AI ved å bruke en bærekraftig superdatabehandlingsplattform som kombinerer HPEs AI-programvare og de mest avanserte superdatamaskinene.

Å ta i bruk AI er tydeligvis utfordrende for organisasjoner av alle størrelser, men det handler ikke bare om teknologien, påpeker Armstrong-Barnes: «I økende grad vil alle AI-brukere måtte holde seg oppdatert med nye AI-forskrifter og overholdelse. Lovgivning som US AI Bill of Rights, EU AI Act og de kommende reguleringsforslagene i den britiske regjeringens AI White Paper – som vanligvis forventes å informere et compliance-klar AI Framework – er immanente eksempler på dette.»

For virksomheter som opererer internasjonalt, ser dette ut som enda et hinder pakket inn i byråkrati, men Armstrong-Barnes antyder at overholdelse av regelverk kanskje ikke er så tyngende som de kan virke – med litt hjelp fra et velutstyrt økosystem for AI-partnerskap.

"Sjekk om dine AI-økosystempartnere også kan hjelpe deg med overholdelse - hvis du allerede er i et sterkt regulert forretningsmiljø, kan det godt være at du allerede er halvveis med eksisterende observasjoner."

Sponset av HPE.

Tidstempel:

Mer fra Registeret