Alimenta il fuoco dell'intelligenza artificiale con la centralizzazione PlatoBlockchain Data Intelligence. Ricerca verticale. Ai.

Alimenta il fuoco dell'IA con la centralizzazione

Funzionalità sponsorizzata Un flusso costante di tecnologie e scoperte rivoluzionarie – il fuoco, l'agricoltura, la ruota, la stampa e Internet, solo per citarne alcune – hanno plasmato profondamente lo sviluppo umano e la civiltà. E quel ciclo di innovazione continua con l'Intelligenza Artificiale (AI). 

La società di ricerca IDC è arrivata al punto di concludere che l'intelligenza artificiale è davvero la risposta a quasi "tutto". Rasmus Andsbjerg, vicepresidente associato, dati e analisi di IDC, afferma: "La realtà è che l'IA offre soluzioni a tutto ciò che stiamo affrontando in questo momento. L'intelligenza artificiale può essere una fonte per accelerare i percorsi di trasformazione digitale, consentire risparmi sui costi in tempi di tassi di inflazione sbalorditivi e supportare gli sforzi di automazione in tempi di carenza di manodopera".

Certamente, e in tutti i settori e le funzioni, le organizzazioni degli utenti finali stanno iniziando a scoprire i vantaggi dell'intelligenza artificiale, poiché emergono algoritmi sempre più potenti e infrastrutture sottostanti per consentire un migliore processo decisionale e una maggiore produttività. 

I ricavi mondiali per il mercato dell'intelligenza artificiale (AI), inclusi software, hardware e servizi associati per le applicazioni incentrate sull'IA e non incentrate sull'IA, hanno totalizzato 383.3 miliardi di dollari nel 2021. Un aumento del 20.7% rispetto all'anno precedente, secondo il più recente International Data Corporation (IDC) Tracker semestrale mondiale di intelligenza artificiale.

Allo stesso modo, l'implementazione del software AI nel cloud continua a mostrare una crescita costante. IDC prevede che le versioni cloud del software AI appena acquistato supereranno le implementazioni on-premise nel 2022.

Il cielo è il limite per l'IA

Il dottor Ronen Dar, chief technology officer dello specialista di intelligenza artificiale Run:ai, che ha creato una piattaforma di gestione del calcolo per l'IA, ritiene che il cielo sia il limite per il nascente settore dell'IA aziendale. 

“L'intelligenza artificiale è un mercato che vediamo crescere molto rapidamente. E in termini di aziende, vediamo la domanda e l'adozione di machine learning e intelligenza artificiale. E penso che in questo momento ci sia una nuova tecnologia qui che sta portando nuove capacità che cambieranno il mondo; che rivoluzioneranno le aziende", osserva Dar. 

C'è anche una comprensione sempre più chiara sulla necessità di iniziare a esplorare e sperimentare con l'IA e capire come integrare l'IA nei modelli di business.

Dar ritiene che l'intelligenza artificiale possa portare "fantastici vantaggi" per migliorare i processi aziendali esistenti: "In termini di ottimizzazione e dimostrazione del business attuale, vediamo molti casi d'uso relativi all'intelligenza artificiale e all'apprendimento automatico che sta migliorando le operazioni e il modo in cui vengono prese le decisioni domanda e offerta”.

Sottolinea che i nuovi modelli di deep learning basati su reti neurali possono migliorare i processi, il processo decisionale e l'accuratezza dei processi aziendali critici come il rilevamento delle frodi nel settore dei servizi finanziari. L'assistenza sanitaria è un altro settore in cui il potenziale dell'intelligenza artificiale è "enorme", in particolare in termini di aiuto ai medici a prendere decisioni cliniche migliori e alla scoperta e allo sviluppo di nuovi farmaci. 

E, guardando più avanti, Dar prevede che la tecnologia AI contribuirà a offrire nuove opportunità commerciali che attualmente non esistono in settori come i veicoli a guida autonoma e i giochi immersivi. 

Ostacoli infrastrutturali da superare

Nonostante l'ovvio potenziale dell'intelligenza artificiale e dell'apprendimento automatico nell'azienda, Dar riconosce che l'implementazione commerciale dell'IA è frenata da problemi relativi alla fornitura di infrastrutture. Consiglia alle aziende di esaminare in primo luogo il modo in cui l'IA entra in un'organizzazione.

In genere, ciò comporta un processo non coordinato, reparto per reparto, che prevede il provisioning indipendente di tecnologia e risorse da parte di diversi team, portando a implementazioni isolate. L'IT non può controllare efficacemente questi progetti ad hoc e non ha visibilità su ciò che sta accadendo. E questo rende difficile se non impossibile calcolare il ROI sulla spesa per l'infrastruttura AI. 

"È il problema classico: in passato c'era lo shadow IT e ora lo shadow AI", afferma Dar. 

Inoltre, l'infrastruttura all'avanguardia necessaria per AI/ML è un investimento in quanto le aziende necessitano di un potente hardware di calcolo con accelerazione GPU per elaborare dati molto complessi e addestrare modelli. 

"I team di intelligenza artificiale hanno bisogno di molta potenza di calcolo per addestrare i modelli, in genere utilizzando GPU, che sono risorse di data center premium che possono essere isolate e non utilizzate in modo efficiente", afferma Dar. "Può comportare lo spreco di molti soldi di sicuro." 

Ad esempio, l'infrastruttura in silos può comportare livelli di utilizzo inferiori al 10%.

Secondo il sondaggio Run:ai, L'indagine 2021 sullo stato dell'infrastruttura AI, pubblicato nell'ottobre 2021, l'87% degli intervistati ha affermato di riscontrare un certo livello di problemi di allocazione delle risorse GPU/calcolo, con il 12% che afferma che ciò accade spesso. Di conseguenza, l'83% delle aziende intervistate ha riferito di non utilizzare completamente la GPU e l'hardware AI. In effetti, quasi i due terzi (61%) hanno indicato che la propria GPU e l'hardware AI sono per lo più a livelli di utilizzo "moderati".

La centralizzazione dell'IA

Per risolvere questi problemi Dar sostiene la centralizzazione della fornitura di risorse AI. Run:AI ha sviluppato una piattaforma di gestione del calcolo per l'IA che fa proprio questo, centralizzando e virtualizzando la risorsa di calcolo della GPU. Raggruppando le GPU in un unico livello virtuale e automatizzando la pianificazione dei carichi di lavoro per un utilizzo del 100%, questo approccio offre vantaggi rispetto ai sistemi in silos a livello dipartimentale. 

La centralizzazione dell'infrastruttura restituisce controllo e visibilità, liberando i data scientist dal sovraccarico della gestione dell'infrastruttura. I team AI condividono una risorsa di calcolo AI universale che può essere attivata e disattivata dinamicamente man mano che la domanda aumenta o diminuisce, eliminando i colli di bottiglia della domanda e i periodi di sottoutilizzo. 

Questo approccio, sostiene Dar, può aiutare le organizzazioni a ottenere il massimo dal proprio hardware e liberare i data scientist dai vincoli della limitazione delle risorse sottostanti. Tutto ciò significa che possono eseguire più lavori e portare in produzione più modelli di intelligenza artificiale. 

Un esempio è fornito dal London Medical Imaging & Artificial Intelligence Centre for Value Based Healthcare, guidato dal King's College London e con sede presso il St. Thomas' Hospital. Utilizza immagini mediche e dati sanitari elettronici per addestrare sofisticati algoritmi di deep learning per la visione artificiale e l'elaborazione del linguaggio naturale. Questi algoritmi vengono utilizzati per creare nuovi strumenti per screening efficaci, diagnosi più rapide e terapie personalizzate.

Il Centro si è reso conto che la sua infrastruttura IA legacy soffriva di problemi di efficienza: l'utilizzo totale della GPU era inferiore al 30% con periodi di inattività "significativi" per alcuni componenti. Dopo essersi mosso per affrontare questi problemi adottando un modello di provisioning di calcolo AI centralizzato basato sulla piattaforma Run:ai, l'utilizzo della sua GPU è aumentato del 110%, con miglioramenti paralleli nella velocità dell'esperimento e nell'efficienza complessiva della ricerca.

"I nostri esperimenti possono richiedere giorni o minuti, utilizzando un rivolo di potenza di calcolo o un intero cluster", afferma il dott. M. Jorge Cardoso, professore associato e docente senior di intelligenza artificiale al King's College di Londra e CTO dell'AI Center. "Ridurre il tempo necessario per ottenere risultati ci garantisce di poter porre e rispondere a domande più critiche sulla salute e sulla vita delle persone", 

La centralizzazione delle risorse della GPU AI ha anche offerto preziosi vantaggi commerciali a Wayve, un'azienda con sede a Londra che sviluppa software AI per auto a guida autonoma. La sua tecnologia è progettata per non dipendere dal rilevamento, ma si concentra invece su una maggiore intelligenza, per una migliore guida autonoma nelle aree urbane densamente popolate.

Il Fleet Learning Loop di Wayve prevede un ciclo continuo di raccolta dati, cura, addestramento dei modelli, ri-simulazione e modelli di licenza prima dell'implementazione nella flotta. Il principale consumo di elaborazione GPU dell'azienda deriva dalla formazione sulla produzione di Fleet Learning Loop. Addestra la linea di base del prodotto con il set di dati completo e si riaddestra continuamente per raccogliere nuovi dati attraverso le iterazioni del ciclo di apprendimento della flotta.

L'azienda ha iniziato a rendersi conto che soffriva di "orrore" per la programmazione delle GPU: sebbene quasi il 100% delle risorse GPU disponibili fosse assegnato ai ricercatori, meno del 45% è stato utilizzato quando i test sono stati inizialmente eseguiti. 

"Poiché le GPU sono state assegnate staticamente ai ricercatori, quando i ricercatori non utilizzavano le GPU assegnate, altri non potevano accedervi, creando l'illusione che le GPU per l'addestramento dei modelli fossero al massimo anche se molte GPU erano inattive", osserva Wayve. 

Lavorare con Run:ai ha affrontato questo problema rimuovendo i silos ed eliminando l'allocazione statica delle risorse. Sono stati creati pool di GPU condivise che consentono ai team di accedere a più GPU e di eseguire più carichi di lavoro, il che ha portato a un miglioramento del 35% del loro utilizzo. 

Mirroring dei miglioramenti dell'efficienza della CPU

Rispecchiando il modo in cui VMware ha apportato sostanziali miglioramenti dell'efficienza al modo in cui le CPU dei server vengono utilizzate alla massima capacità negli ultimi anni, sono ora in arrivo nuove innovazioni per ottimizzare l'efficienza dell'utilizzo della GPU per i carichi di lavoro di elaborazione IA. 

"Se pensi allo stack software che viene eseguito sulle CPU, è stato creato con molto VMware e virtualizzazione", spiega Dar. “Le GPU sono relativamente nuove nel data center e i software per l'intelligenza artificiale e la virtualizzazione, ad esempio NVIDIA AI aziendale – è anche uno sviluppo recente. 

“Portiamo tecnologia avanzata in quell'area con funzionalità come GPU frazionata, scambio di lavoro e. consentendo ai carichi di lavoro di condividere in modo efficiente le GPU", afferma Dar, aggiungendo che sono in programma ulteriori miglioramenti.

Run:ai lavora a stretto contatto con NVIDIA per migliorare e semplificare l'utilizzo delle GPU in azienda. La collaborazione più recente include l'abilitazione della flessibilità GPU multi-cloud per le aziende che utilizzano GPU nel cloud e l'integrazione con Server di inferenza NVIDIA Triton software per semplificare il processo di distribuzione dei modelli in produzione.

Nel modo in cui le principali innovazioni nel corso della storia hanno avuto un profondo impatto sulla razza umana e sul mondo, Dar osserva che il potere dell'IA dovrà essere sfruttato con cura per massimizzare i suoi potenziali benefici, gestendo i potenziali svantaggi. Confronta l'intelligenza artificiale con l'innovazione più primordiale di tutte: il fuoco. 

“È come il fuoco che ha portato tante grandi cose e cambiato vite umane. Anche il fuoco ha portato pericolo. Così gli esseri umani hanno capito come vivere con il fuoco", dice Dar. "Penso che questo sia anche qui nell'IA in questi giorni." 

Sponsorizzato da Run:ai.

Timestamp:

Di più da Il registro