Ce este un GPU? Cipurile care alimentează boom-ul AI și de ce valorează trilioane

Ce este un GPU? Cipurile care alimentează boom-ul AI și de ce valorează trilioane

What Is a GPU? The Chips Powering the AI Boom, and Why They’re Worth Trillions PlatoBlockchain Data Intelligence. Vertical Search. Ai.

Pe măsură ce lumea se grăbește să folosească cel mai recent val de tehnologii AI, o singură piesă de hardware de înaltă tehnologie a devenit o marfă surprinzător de fierbinte: unitatea de procesare grafică sau GPU.

Un GPU de top se poate vinde pentru zeci de mii de dolari, iar producătorul lider Nvidia și-a văzut evaluarea de piață a depășit 2 trilioane de dolari pe măsură ce cererea pentru produsele sale crește.

GPU-urile nu sunt doar produse AI de vârf. Există GPU-uri mai puțin puternice și în telefoane, laptopuri și console de jocuri.

Până acum probabil vă întrebați: Ce este un GPU, de fapt? Și ce îi face atât de speciali?

Ce este un GPU?

GPU-urile au fost concepute inițial în primul rând pentru a genera și afișa rapid scene și obiecte 3D complexe, cum ar fi cele implicate în jocuri video și proiectare asistată de calculator software. GPU-urile moderne se ocupă și de sarcini precum decomprimare fluxuri video.

„Creierul” majorității computerelor este un cip numit unitate centrală de procesare (CPU). Procesoarele pot fi folosite pentru a genera scene grafice și pentru a decomprima videoclipuri, dar sunt de obicei mult mai lente și mai puțin eficiente la aceste sarcini în comparație cu GPU-urile. CPU-urile sunt mai potrivite pentru sarcinile generale de calcul, cum ar fi procesarea de text și navigarea în pagini web.

Prin ce sunt diferite GPU-urile de procesoare?

Un procesor modern tipic este format din între 8 și 16”miezuri”, fiecare dintre acestea poate procesa sarcini complexe într-o manieră secvențială.

GPU-urile, pe de altă parte, au mii de nuclee relativ mici, care sunt proiectate să funcționeze toate în același timp („în paralel”) pentru a obține o procesare generală rapidă. Acest lucru le face potrivite pentru sarcini care necesită un număr mare de operații simple care pot fi efectuate în același timp, mai degrabă decât una după alta.

GPU-urile tradiționale vin în două variante principale.

În primul rând, există cipuri de sine stătătoare, care vin adesea în carduri suplimentare pentru computere desktop mari. În al doilea rând sunt GPU-urile combinate cu un procesor în același pachet de cip, care se găsesc adesea în laptopuri și console de jocuri, cum ar fi PlayStation 5. În ambele cazuri, procesorul controlează ceea ce face GPU-ul.

De ce sunt GPU-urile atât de utile pentru AI?

Se pare că GPU-urile pot fi reutilizate pentru a face mai mult decât a genera scene grafice.

Multe dintre tehnicile de învățare automată din spate inteligență artificială, Cum ar fi rețele neuronale profunde, se bazează foarte mult pe diverse forme de multiplicare a matricei.

Aceasta este o operație matematică în care seturi foarte mari de numere sunt înmulțite și însumate. Aceste operațiuni sunt potrivite pentru procesarea paralelă și, prin urmare, pot fi efectuate foarte rapid de GPU-uri.

Ce urmează pentru GPU-uri?

Capacitatea de strângere a numărului a GPU-urilor crește constant datorită creșterii numărului de nuclee și a vitezei de operare a acestora. Aceste îmbunătățiri sunt determinate în primul rând de îmbunătățirile în producția de cipuri de către companii precum TSMC În Taiwan.

Dimensiunea tranzistoarelor individuale – componentele de bază ale oricărui cip de calculator – scade, permițând plasarea mai multor tranzistori în aceeași cantitate de spațiu fizic.

Cu toate acestea, aceasta nu este întreaga poveste. În timp ce GPU-urile tradiționale sunt utile pentru sarcinile de calcul legate de AI, ele nu sunt optime.

Așa cum GPU-urile au fost concepute inițial pentru a accelera computerele prin furnizarea de procesare specializată pentru grafică, există acceleratoare care sunt concepute pentru a accelera sarcinile de învățare automată. Aceste acceleratoare sunt adesea denumite GPU pentru centre de date.

Unele dintre cele mai populare acceleratoare, produse de companii precum AMD și Nvidia, au început ca GPU-uri tradiționale. De-a lungul timpului, design-urile lor au evoluat pentru a gestiona mai bine diverse sarcini de învățare automată, de exemplu prin sprijinirea celor mai eficiente „plutirea creierului” format numeric.

Alte acceleratoare, cum ar fi Google unități de procesare tensorială și al lui Tenstorrent Tense nuclee, au fost concepute de la sol pentru a accelera rețelele neuronale profunde.

GPU-urile pentru centrele de date și alte acceleratoare AI vin de obicei cu mult mai multă memorie decât cardurile adiționale GPU tradiționale, ceea ce este esențial pentru antrenarea modelelor AI mari. Cu cât modelul AI este mai mare, cu atât este mai capabil și mai precis.

Pentru a accelera și mai mult antrenamentul și pentru a gestiona modele AI și mai mari, cum ar fi ChatGPT, multe GPU-uri ale centrelor de date pot fi reunite pentru a forma un supercomputer. Acest lucru necesită un software mai complex pentru a valorifica în mod corespunzător puterea disponibilă de scriere a numărului. O altă abordare este să creați un singur accelerator foarte mare, la fel ca "procesor la scară wafer” produs de Cerebras.

Sunt cipurile specializate viitorul?

Nici CPU-urile nu au stat pe loc. Procesoarele recente de la AMD și Intel au încorporate instrucțiuni de nivel scăzut care accelerează reducerea numărului cerută de rețelele neuronale profunde. Această funcționalitate suplimentară ajută în principal la sarcinile de „inferență”, adică folosind modele AI care au fost deja dezvoltate în altă parte.

Pentru a antrena modelele AI în primul rând, sunt încă necesare acceleratoare mari asemănătoare GPU-ului.

Este posibil să se creeze acceleratoare din ce în ce mai specializate pentru algoritmi specifici de învățare automată. Recent, de exemplu, o companie numită Groq a produs un „unitate de procesare a limbajului” (LPU) special conceput pentru a rula modele de limbi mari de-a lungul liniilor ChatGPT.

Cu toate acestea, crearea acestor procesoare specializate necesită resurse de inginerie considerabile. Istoricul arată că utilizarea și popularitatea oricărui algoritm de învățare automată tinde să ajungă la vârf și apoi să scadă – astfel încât hardware-ul specializat scump poate deveni rapid depășit.

Pentru consumatorul mediu, însă, este puțin probabil să fie o problemă. Este posibil ca GPU-urile și alte cipuri din produsele pe care le utilizați să devină mai rapid.

Acest articol este republicat de la Conversaţie sub licență Creative Commons. Citeste Articol original.

Credit imagine: Nvidia

Timestamp-ul:

Mai mult de la Singularity Hub