Att sätta AI-utmaningar i perspektiv med partnerskap

Att sätta AI-utmaningar i perspektiv med partnerskap

Att sätta AI-utmaningar i perspektiv med partnerskap PlatoBlockchain Data Intelligence. Vertikal sökning. Ai.

Sponsrad funktion I takt med att tekniken blir mer spridd i fler vertikala sektorer och branscher, hyllas kapaciteten hos artificiell intelligens (AI) att omvandla affärsprocesser, strategiskt beslutsfattande och kundupplevelser av IT-strateger och ekonomiska analytiker.

Även verkställande direktörer som en gång var försiktiga med att godkänna investeringen som AI behöver för att leverera optimalt värde börjar inse dess potential att förbättra den operativa effektiviteten och bana väg för nya intäktsströmmar.

Prognoser från ärevördiga marknadsbevakare som PwC stödjer deras uppfattning. Det är 'Global artificiell intelligensstudie' räknar med att AI kan bidra med upp till 15.7 biljoner dollar till globala ekonomier 2030. Av detta kan 6.6 biljoner dollar komma från ökad produktivitet och 9.1 biljoner dollar kan komma från "konsumtionsbiverkningar", hävdar PwC.

Den senaste lanseringen av flera generativa AI-verktyg anses vara en breakout poäng för vad som tidigare varit en mycket specialiserad och "futuristisk" gren av datavetenskap. I Storbritannien 2022 Office for Artificial Intelligence rapporterade att cirka 15 procent av företagen hade anammat minst en AI-teknik, vilket motsvarar 432,000 2 företag. Cirka 10 procent av företagen testade AI, och 62,000 procent planerade att införa minst en AI-teknik framöver (292,000 XNUMX respektive XNUMX XNUMX företag).

Det är fortfarande komplicerade saker

Mitt i denna AI-glöd bör organisationer komma ihåg att AI fortfarande är en relativt ung teknik, och det kan vara utmanande att installera för första gången. Dessutom är associerad avkastning på investeringen (ROI) starkt beroende av mycket exakt hanterade implementeringsprocedurer och konfigurationer som ofta är mindre robusta inför fel än konventionella IT-installationer.

AI ställer upp värdefulla tester för IT-teamen som har till uppgift att implementera AI/Machine Learning-initiativ och arbetsbelastningar, till exempel, vilket kan inkludera att övervinna kompetensluckor och beräkningsbegränsningar. De kan också innebära resursavvägningar med andra företags arbetsbelastningar som redan använder en gemensam IT-infrastruktur.

"AI är en resa, inte en destination – det handlar inte om att vara redo att använda eller automatisera processer helt enkelt för mer effektivitet", säger Matt Armstrong-Barnes, Chief Technology Officer för artificiell intelligens på Hewlett Packard Enterprise (HPE). "Det handlar snarare om att förverkliga långsiktigt värde, att möjliggöra bättre resultat och att inse att AI kräver ett fundamentalt annorlunda tillvägagångssätt för IT-distribution. För företagsteknologer är det en 360-graders allsidig inlärningskurva.”

Armstrong-Barnes poäng bevisas av Deloittes senaste 'Läget för AI i företaget' undersökning av globala företagsledare. Dess respondenter identifierade en mängd utmaningar som AI uppstod i på varandra följande faser av deras AI-implementeringsprojekt. Att bevisa AI:s affärsvärde var en fråga som citerades av 37 procent – ​​projekt kan visa sig kostsamma, och ett övertygande affärscase kan vara svårt att validera inför investeringsförsiktiga styrelser och C-Suite-chefer.

Att skala upp dessa AI-projekt över tid kan motverka ytterligare identifierade hinder, såsom hantering av AI-relaterade risker (citerade av 50 procent av de som deltar i Deloitte-undersökningen), brist på verkställande inköp (också 50 procent) och brist på underhåll eller löpande support (50 procent igen).

"Helt förståeligt måste företagsledare vara övertygade om att AI kommer att betala sin väg", säger Armstrong-Barnes. "Det är här att arbeta från början med en teknisk partner som har varit involverad i beprövade AI-implementeringar i många år hjälper till att vinna fallet. Dess meritlista kommer att ge trovärdighet åt projektförslag och hjälpa till att övertyga chefer om att AI:s risker är lika hanterbara som alla andra IT-företag.”

Och även om teknik och talang verkligen behövs, är det lika viktigt att anpassa ett företags kultur, struktur och arbetssätt för att stödja en bred AI-användning, enligt McKinsey, med distinkta egenskaper som ibland fungerar som hinder för AI-driven förändring.

"Om ett företag har relationshanterare som är stolta över att vara anpassade till kundernas behov, kan de förkasta uppfattningen att en "maskin" skulle kunna ha bättre idéer om vad kunderna vill ha och ignorera ett AI-verktygs skräddarsydda produktrekommendationer, säger McKinsey.

"Jag konfererar med HPE-kamrater och HPE-kunder ofta om de utmaningar de möter med AI-distribution", rapporterar Armstrong-Barnes. "Några vanliga bevisegenskaper dyker upp om och om igen. Den ena är en underskattning av hur fundamentalt olika AI-implementeringar är från traditionella IT-implementationer. Organisationer måste distribuera AI på ett i första hand annorlunda sätt än de IT-projekt de har implementerat tidigare. Datahantering och skalning skiljer sig markant för AI. Detta innebär att ibland svårvunna tekniska erfarenheter måste läras in på nytt.”

Benägenheten att experimentera med AI-piloter innan den distribueras direkt i ett verkligt användningsfall som stödjer ett trängande affärsbehov bör undvikas, förklarar Armstrong-Barnes. "Försök-innan-du-köper-metoden verkar rimlig – AI är komplex och investeringshungrig", förklarar han, "Men med AI replikerar torrkörningar och testprojekt inte riktigt de utmaningar som användarorganisationer kommer att möta med en faktisk implementering . Det som börjar "i labbet" tenderar att stanna kvar i labbet."

I andra änden av adoptionsskalan ser Armstrong-Barnes företag som försöker tillämpa AI varhelst den kan tillämpas, även där en applikation fungerar optimalt utan AI: "Det här är att ta bort – bara för att du i AI har en massiv hammare, man ska då inte se allt som en nöt som ska knäckas.”

Människor och infrastruktur inte lättillgänglig

Även de mest avancerade AI-systemen har ännu inte uppnått total autonomi från slut till ände – de måste tränas och finjusteras av mänsklig expertis. Detta representerar ytterligare en utmaning för AI-strävande företag: hur skaffar man sig på bästa sätt den nödvändiga kompetensen – omskola befintlig IT-personal? Rekrytera nya teammedlemmar med erforderlig AI-kunskap? Eller utforska alternativ för att skjuta upp behovet av AI-expertis till teknikpartners?

McKinsey rapporter att AI:s potential begränsas av en brist på kvalificerad talang. Ett typiskt AI-projekt kräver ett mycket skickligt team inklusive en datavetare, dataingenjör, ML-ingenjör, produktchef och designer – och det finns helt enkelt inte tillräckligt med specialister tillgängliga för att ockupera alla dessa lediga jobb.

"Vi ser att företagsteknologer i allmänhet måste uppgradera sina förmågor i fem viktiga avseenden", säger Armstrong-Barnes. "De ligger i huvudsak inom områdena AI-expertis, IT-infrastruktur, datahantering, komplexitetshantering och i mindre grad de tidigare nämnda kulturella barriärerna. Ingen av dessa utmaningar är oöverstigliga med rätt tillvägagångssätt och partnerskapsstöd.”

AI gillar också superkraftig hårdvara att köra på. Att tillhandahålla högpresterande beräkningsplattformar fortsätter som en ständig utmaning eftersom få organisationer vill – eller har råd – att göra de nödvändiga investeringarna i sina serveranläggningar utan en bevisbar ökning av ROI-kvoterna.

"När man planerar AI-implementeringar måste IT-planerare i ett mycket tidigt skede fatta några viktiga beslut angående kärntekniken", säger Armstrong-Barnes. "Tänker du till exempel köpa den, bygga den - eller ta en hybrid strategi som omfattar delar av båda?"

Nästa viktiga beslut gäller partnerskap. En avgörande förutsättning för framgångsrik AI-leverans är att ingen kan klara det ensam, påpekar Armstrong-Barnes: "Du behöver stöd från teknikpartners, och det bästa sättet att etablera dessa partnerskap är genom ett AI-ekosystem. Tänk på ett AI-ekosystem som en stödjande konsortia av expertis som tillsammans ger dig tillgång till rätt kunskap, data, AI-verktyg, teknik och ekonomi för att utveckla och operationalisera dina AI-strävanden."

Armstrong-Barnes tillägger: "Kunder frågar ibland hur HPE kom att bli så erfarna i AI-användningsfall – förutsåg vi dess inverkan för flera år sedan och började förbereda oss långt före marknaden? Faktum är att vi såg AI:s inverkan komma inte för några år utan för decennier sedan, har etablerat AI-centra för spetskompetens och ekosystem under lång tid, och har gjort strategiska förvärv för att utöka vår befintliga expertis i linje med kundernas krav och tillväxtmöjligheter.”

Ingen träning ingen förtjäning

En sådan förstärkning är Determined AI, som blev en del av HPE:s HPC- och AI-lösningar 2021. Determined AI:s mjukvara med öppen källkod tar upp det faktum att att bygga och träna optimerade modeller i stor skala är ett krävande och kritiskt skede av ML-utvecklingen – ett som alltmer kräver att icke-teknologer som analytiker, forskare och vetenskapsmän tar sig an HPC:s utmaningar.

Dessa utmaningar inkluderar att sätta upp och hantera en mycket parallell mjukvarustack och infrastruktur som sträcker sig över specialiserad datorprovisionering, datalagring, beräkningsstruktur och acceleratorkort.

"Dessutom måste ML-exponenter programmera, schemalägga och träna sina modeller effektivt för att maximera utnyttjandet av den specialiserade infrastruktur de har satt upp", säger Armstrong-Barnes, "som kan skapa komplexitet och bromsa produktiviteten."

Dessa uppgifter måste naturligtvis utföras med en rigorös kompetensnivå som, även med stöd av överansträngda interna IT-team, inte lätt kan garanteras.

Determined AI:s öppen källkodsplattform för ML-modellutbildning är utformad för att överbrygga denna resurslucka, vilket gör det enkelt att konfigurera, konfigurera, hantera och dela arbetsstationer eller AI-kluster som körs på plats eller i molnet. Och utöver premiumsupport innehåller den funktioner som avancerad säkerhet, övervakning och observerbarhetsverktyg – allt med stöd av expertis från HPE.

"Determined AI handlar om att ta bort hinder för företag att bygga och träna ML-modeller i skala och hastighet, för att realisera större värde på kortare tid, med det nya HPE Machine Learning Development System," förklarar Armstrong-Barnes. "Dessa funktioner inkluderar ganska tekniska saker som är nödvändiga för att optimera AI/Machine Learning-arbetsbelastningar, som acceleratorschemaläggning, feltolerans, höghastighets parallell och distribuerad utbildning av modeller, avancerad hyperparameteroptimering och neural arkitektursökning.

"Lägg till det disciplinära uppgifter som reproducerbart samarbete och mätvärdesspårning - det är mycket att hålla koll på. Med Determined AI:s hjälp kan projektspecialister fokusera på innovation och snabba upp sin tid till leverans.”

Fler HPC-resurser och regleringar spelar sin roll

Kraften hos HPC används också i allt högre grad för att träna och optimera AI-modeller, förutom att kombinera med AI för att öka arbetsbelastningar som modellering och simulering – sedan länge etablerade verktyg för att snabba på tiden till upptäckt i sektorer över hela tillverkningsindustrin.

Den globala HPC-marknaden är inställd på en uppskattad tillväxt under resten av 2020-talet. Mordor intelligens uppskattningar dess värde till 56.98 miljarder USD 2023, och förväntar sig att det kommer att nå 96.79 miljarder USD 2028 – en CAGR på 11.18 procent under prognosperioden.

"HPE har byggt HPC-infrastruktur under lång tid och har nu en HPC-portfölj som inkluderar Exascale superdatorer och densitetsoptimerade beräkningsplattformar. Några av de största HPC-klustren bygger på HPE-innovation”, säger Armstrong-Barnes. "HPE har oöverträffad expertis inom högpresterande hårdvaruplattformar."

Med införandet av HPE GreenLake för stora språkmodeller tidigare i år (2023) kan företag – från startups till Fortune 500 – träna, trimma och distribuera storskalig AI med hjälp av en hållbar superdatorplattform som kombinerar HPE:s AI-mjukvara och de mest avancerade superdatorerna.

Det är uppenbart att det är en utmaning för organisationer av alla storlekar att anta AI, men det handlar inte bara om tekniken, påpekar Armstrong-Barnes: "Allt mer kommer alla AI-användare att behöva hålla sig uppdaterade med framväxande AI-regler och efterlevnad. Lagstiftning som den amerikanska AI Bill of Rights, EU AI Act och de kommande regleringsförslagen som anges i den brittiska regeringens AI White Paper – som vanligtvis förväntas informera ett efterlevnadsfärdigt AI Framework – är immanenta exempel på detta.”

För företag som verkar internationellt ser detta ut som ännu ett hinder insvept i byråkrati, men Armstrong-Barnes antyder att regelefterlevnad kanske inte är så betungande som de kan verka – med lite hjälp från ett välutrustat AI-partnerskaps-ekosystem.

"Kontrollera om dina AI-ekosystempartners också kan hjälpa dig med efterlevnad – om du redan befinner dig i en hårt reglerad affärsmiljö kan det mycket väl vara så att du redan är halvvägs där med befintliga observationer."

Sponsras av HPE.

Tidsstämpel:

Mer från Registret