Alimentați focul AI cu centralizarea PlatoBlockchain Data Intelligence. Căutare verticală. Ai.

Alimentați focul AI cu centralizare

Funcție sponsorizată Un flux constant de tehnologii și descoperiri revoluționare – focul, agricultura, roata, tipografia și internetul, pentru a numi doar câteva – au modelat profund dezvoltarea umană și civilizația. Și acel ciclu de inovare continuă cu Inteligența Artificială (AI). 

Firma de cercetare IDC a ajuns atât de departe încât a ajuns la concluzia că AI este într-adevăr răspunsul la aproape „totul”. Rasmus Andsbjerg, vicepreședinte asociat, date și analiză la IDC, spune: „Realitatea este că AI oferă soluții la tot ceea ce ne confruntăm în acest moment. Inteligența artificială poate fi o sursă pentru accelerarea călătoriilor de transformare digitală, permite economii de costuri în perioadele de inflație uluitoare și sprijină eforturile de automatizare în perioadele de deficit de forță de muncă.”

Cu siguranță, și în toate industriile și funcțiile, organizațiile utilizatorilor finali încep să descopere beneficiile inteligenței artificiale, pe măsură ce apar algoritmi și infrastructura de bază din ce în ce mai puternice pentru a permite o mai bună luare a deciziilor și o productivitate mai mare. 

Veniturile la nivel mondial pentru piața de inteligență artificială (AI), inclusiv software-ul, hardware-ul și serviciile asociate atât pentru aplicațiile centrate pe AI, cât și pentru aplicațiile non-centrate pe AI, au totalizat 383.3 miliarde USD în 2021. Aceasta a fost în creștere cu 20.7% față de anul precedent, potrivit celor mai importante. Recent Instrumentul mondial semestrial de urmărire a inteligenței artificiale International Data Corporation (IDC)..

În mod similar, implementarea software-ului AI în cloud continuă să prezinte o creștere constantă. IDC se așteaptă ca versiunile cloud ale software-ului AI proaspăt achiziționat să depășească implementările on-premise în 2022.

Cerul este limita pentru AI

Dr. Ronen Dar, director de tehnologie al specialistului AI Run:ai, care a creat o platformă de gestionare a calculatoarelor pentru AI, consideră că cerul este limita pentru sectorul înființat al IA pentru întreprinderi. 

„AI este o piață despre care vedem că crește foarte rapid. Și în ceea ce privește întreprinderile, vedem cerere și adoptare pentru învățarea automată și AI. Și cred că acum există o nouă tehnologie aici care aduce noi capabilități care vor schimba lumea; care vor revoluționa afacerile”, notează Dar. 

Există, de asemenea, o înțelegere din ce în ce mai clară cu privire la necesitatea de a începe explorarea și experimentarea cu AI și de a înțelege cum să integrăm AI în modelele de afaceri.

Dar consideră că AI poate aduce „beneficii uimitoare” pentru a îmbunătăți procesele de afaceri existente ale întreprinderii: „În ceea ce privește optimizarea și demonstrarea afacerii actuale, vedem o mulțime de cazuri de utilizare în jurul AI și a învățării automate, care îmbunătățesc operațiunile și modul în care sunt luate deciziile. în jurul cererii și ofertei.”

El subliniază că noile modele de învățare profundă bazate pe rețele neuronale pot îmbunătăți procesele, luarea deciziilor și acuratețea proceselor de afaceri critice, cum ar fi detectarea fraudelor în industria serviciilor financiare. Asistența medicală este un alt sector în care potențialul AI este „uriaș”, în special în ceea ce privește ajutarea medicilor să ia decizii clinice mai bune și ajutarea la descoperirea și dezvoltarea de noi medicamente. 

Și, privind mai departe, Dar prezice că tehnologia AI va ajuta la oferirea de noi oportunități comerciale care nu există în prezent în sectoare precum vehiculele cu conducere autonomă și jocurile imersive. 

Obstacole de infrastructură de depășit

În ciuda potențialului evident pentru AI și învățarea automată în întreprindere, Dar recunoaște că implementarea comercială a AI este împiedicată de problemele legate de furnizarea infrastructurii. El sfătuiește că firmele trebuie să analizeze în primul rând modul în care AI intră într-o organizație.

De obicei, acest lucru implică un proces necoordonat, departament cu departament, care vede diferite echipe furnizând tehnologie și resurse în mod independent, ceea ce duce la implementări izolate. IT nu poate controla eficient aceste proiecte ad-hoc și nu are vizibilitate asupra a ceea ce se întâmplă. Și acest lucru face dificil, dacă nu imposibil, calcularea rentabilității investiției pe cheltuielile cu infrastructura AI. 

„Este problema clasică: pe vremuri era shadow IT, iar acum este shadow AI”, spune Dar. 

În plus, infrastructura de ultimă oră necesară pentru AI/ML este o investiție, deoarece întreprinderile au nevoie de hardware de calcul puternic accelerat de GPU pentru a procesa date foarte complexe și pentru a antrena modele. 

„Echipele AI au nevoie de multă putere de calcul pentru a antrena modele, de obicei folosind GPU-uri, care sunt resurse premium ale centrelor de date care pot fi izolate și nu pot fi utilizate eficient”, spune Dar. „Poate duce cu siguranță la irosirea multor bani.” 

Acea infrastructură separată poate duce la niveluri de utilizare mai mici de 10%, de exemplu.

Potrivit sondajului Run:ai, Sondajul privind starea infrastructurii IA din 2021, publicat în octombrie 2021, 87% dintre respondenți au declarat că întâmpină un anumit nivel de probleme de alocare a resurselor GPU/compute, 12% spunând că acest lucru se întâmplă des. Drept urmare, 83% dintre companiile chestionate au raportat că nu își folosesc pe deplin hardware-ul GPU și AI. De fapt, aproape două treimi (61 la sută) au indicat că hardware-ul GPU și AI sunt în mare parte la niveluri „moderate” de utilizare.

Centralizarea AI

Pentru a rezolva aceste probleme, Dar pledează pentru centralizarea furnizării de resurse AI. Run:AI a dezvoltat o platformă de management de calcul pentru AI care face exact acest lucru, centralizând și virtualizând resursa de calcul GPU. Prin gruparea GPU-urilor într-un singur strat virtual și automatizarea programării sarcinii de lucru pentru o utilizare de 100%, această abordare oferă avantaje în comparație cu sistemele separate la nivel de departament. 

Centralizarea infrastructurii redă controlul și vizibilitatea, eliberând în același timp oamenii de știință de date de cheltuielile generale legate de gestionarea infrastructurii. Echipele AI împărtășesc o resursă de calcul AI universală, care poate fi activată în mod dinamic în sus și în jos pe măsură ce cererea crește sau scade, eliminând blocajele cererii și perioadele de subutilizare. 

Această abordare, susține Dar, poate ajuta organizațiile să profite la maximum de hardware-ul lor și să elibereze oamenii de știință de date de constrângerile limitării resurselor subiacente. Toate acestea înseamnă că pot rula mai multe lucrări și pot aduce mai multe modele AI în producție. 

Un exemplu este oferit de Centrul de imagistică medicală și inteligență artificială din Londra pentru asistență medicală bazată pe valoare, condus de King's College din Londra și cu sediul la Spitalul St. Thomas. Utilizează imagini medicale și date electronice de asistență medicală pentru a antrena algoritmi sofisticați de învățare profundă pentru viziunea computerizată și procesarea limbajului natural. Acești algoritmi sunt utilizați pentru a crea noi instrumente pentru screening eficient, diagnosticare mai rapidă și terapii personalizate.

Centrul și-a dat seama că moștenirea infrastructură AI suferă de probleme de eficiență: utilizarea totală a GPU-ului a fost sub 30%, cu perioade de inactivitate „semnificative” pentru unele componente. După ce a trecut la abordarea acestor probleme prin adoptarea unui model de furnizare de calcul AI centralizat bazat pe platforma Run:ai, utilizarea GPU-ului său a crescut cu 110%, cu îmbunătățiri paralele ale vitezei experimentului și ale eficienței generale a cercetării.

„Experimentele noastre pot dura zile sau minute, folosind un strop de putere de calcul sau un întreg cluster”, spune Dr. M. Jorge Cardoso, profesor asociat și lector principal în AI la King's College London și CTO al Centrului AI. „Reducerea timpului până la rezultate ne asigură că putem pune și răspunde la întrebări mai importante despre sănătatea și viața oamenilor.” 

Centralizarea resurselor AI GPU a adus beneficii comerciale valoroase pentru Wayve, o firmă din Londra care dezvoltă software AI pentru mașini cu conducere autonomă. Tehnologia sa este concepută pentru a nu depinde de senzori, ci se concentrează în schimb pe o mai mare inteligență, pentru o conducere autonomă mai bună în zonele urbane dense.

Bucla de învățare a flotei Wayve implică un ciclu continuu de colectare a datelor, curatare, formare de modele, resimulare și modele de licențiere înainte de implementarea în flotă. Consumul principal de calcul al GPU al companiei provine din instruirea de producție Fleet Learning Loop. Antrenează linia de bază a produsului cu setul de date complet și se reinstruiește continuu pentru a colecta date noi prin iterații ale buclei de învățare a flotei.

Compania a început să-și dea seama că suferă de „horrorea” de programare a GPU: deși aproape 100% din resursele GPU disponibile au fost alocate cercetătorilor, mai puțin de 45% au fost utilizate atunci când testarea a fost efectuată inițial. 

„Deoarece GPU-urile au fost atribuite static cercetătorilor, atunci când cercetătorii nu foloseau GPU-urile alocate, alții nu le puteau accesa, creând iluzia că GPU-urile pentru antrenamentul modelelor erau la capacitate maximă, chiar dacă multe GPU-uri stăteau inactive”, notează Wayve. 

Lucrul cu Run:ai a abordat această problemă prin eliminarea silozurilor și eliminând alocarea statică a resurselor. Au fost create grupuri de GPU partajate, permițând echipelor să acceseze mai multe GPU-uri și să ruleze mai multe sarcini de lucru, ceea ce a condus la o îmbunătățire cu 35% a utilizării acestora. 

Îmbunătățirea eficienței procesorului în oglindă

Oglindind modul în care VMware a adus îmbunătățiri substanțiale ale eficienței modului în care procesoarele serverului sunt utilizate la capacitate maximă în ultimii ani, noi inovații sunt acum lansate pentru a optimiza eficiența utilizării GPU-ului pentru sarcinile de lucru de calcul AI. 

„Dacă vă gândiți la stiva de software care rulează peste procesoare, a fost construită cu mult VMware și virtualizare”, explică Dar. „GPU-urile sunt relativ noi în centrul de date și software pentru AI și virtualizare – cum ar fi NVIDIA AI Enterprise – este, de asemenea, o evoluție recentă.” 

„Aducem tehnologie avansată în acest domeniu, cu capabilități precum GPU fracționat, schimbul de locuri de muncă și. permițând sarcinilor de lucru să partajeze eficient GPU-urile”, spune Dar, adăugând că sunt planificate îmbunătățiri suplimentare.

Run:ai lucrează îndeaproape cu NVIDIA pentru a îmbunătăți și simplifica utilizarea GPU-urilor în întreprindere. Cea mai recentă colaborare include activarea flexibilității GPU-urilor multi-cloud pentru companiile care folosesc GPU-uri în cloud și integrarea cu NVIDIA Triton Inference Server software pentru a simplifica procesul de implementare a modelelor în producție.

În felul în care inovațiile majore de-a lungul istoriei au avut un impact profund asupra rasei umane și asupra lumii, Dar observă că puterea AI va trebui valorificată cu grijă pentru a-și maximiza beneficiile potențiale, gestionând în același timp potențialele dezavantaje. El compară AI cu cea mai primitivă inovație dintre toate: focul. 

„Este ca focul care a adus o mulțime de lucruri grozave și a schimbat vieți omenești. Incendiul a adus și pericol. Așa că ființele umane au înțeles cum să trăiască cu focul”, spune Dar. „Cred că asta este și aici în AI în zilele noastre.” 

Sponsorizat de Run:ai.

Timestamp-ul:

Mai mult de la Registrul