Kaj je GPU? Čipi, ki poganjajo razcvet umetne inteligence, in zakaj so vredni trilijone

Kaj je GPU? Čipi, ki poganjajo razcvet umetne inteligence, in zakaj so vredni trilijone

What Is a GPU? The Chips Powering the AI Boom, and Why They’re Worth Trillions PlatoBlockchain Data Intelligence. Vertical Search. Ai.

Medtem ko svet hiti z uporabo najnovejšega vala tehnologij umetne inteligence, je en kos visokotehnološke strojne opreme postal presenetljivo vroča dobrina: grafična procesna enota ali GPE.

Vrhunski grafični procesor se lahko prodaja za več deset tisoč dolarjev, in vodilni proizvajalec Nvidia je videl njegovo tržno vrednotenje presegli 2 bilijona dolarjev saj povpraševanje po njegovih izdelkih narašča.

Tudi grafični procesorji niso samo vrhunski izdelki z umetno inteligenco. V telefonih, prenosnih računalnikih in igralnih konzolah so tudi manj zmogljivi grafični procesorji.

Zdaj se verjetno sprašujete: Kaj je pravzaprav GPU? In kaj jih dela tako posebne?

Kaj je GPU?

GPU-ji so bili prvotno zasnovani predvsem za hitro ustvarjanje in prikaz kompleksnih 3D-prizorov in predmetov, kot so tisti, ki so vključeni v video igre in računalniško podprto oblikovanje programsko opremo. Sodobni grafični procesorji obravnavajo tudi naloge, kot so dekompresijo video tokovi.

»Možgani« večine računalnikov so čipi, imenovani centralna procesna enota (CPE). CPU-je je mogoče uporabiti za ustvarjanje grafičnih prizorov in dekompresijo videoposnetkov, vendar so pri teh nalogah običajno veliko počasnejši in manj učinkoviti v primerjavi z GPE-ji. CPU-ji so bolj primerni za splošna računalniška opravila, kot sta obdelava besedil in brskanje po spletnih straneh.

Kako se grafični procesorji razlikujejo od procesorjev?

Tipičen sodoben CPE je sestavljen iz med 8 in 16"jedra”, od katerih lahko vsak obdela zapletene naloge na zaporedni način.

GPE-ji imajo na drugi strani na tisoče sorazmerno majhnih jeder, ki so zasnovana tako, da vsa delujejo hkrati (»vzporedno«), da dosežejo hitro splošno obdelavo. Zaradi tega so zelo primerni za naloge, ki zahtevajo veliko število preprostih operacij, ki jih je mogoče izvajati hkrati, namesto enega za drugim.

Tradicionalni grafični procesorji so na voljo v dveh glavnih različicah.

Prvič, obstajajo samostojni čipi, ki so pogosto na voljo v dodatnih karticah za velike namizne računalnike. Drugi so grafični procesorji v kombinaciji s centralnim procesorjem v istem paketu čipov, ki jih pogosto najdemo v prenosnikih in igralnih konzolah, kot je PlayStation 5. V obeh primerih CPE nadzoruje, kaj počne grafični procesor.

Zakaj so grafični procesorji tako uporabni za AI?

Izkazalo se je, da je mogoče grafične procesorje preoblikovati za več kot samo ustvarjanje grafičnih prizorov.

Številne tehnike strojnega učenja v ozadju Umetna inteligenca, Kot je globoke nevronske mreže, se močno zanašajo na različne oblike množenja matrik.

To je matematična operacija, pri kateri se zelo veliki nizi števil pomnožijo in seštejejo. Te operacije so zelo primerne za vzporedno obdelavo, zato jih GPE lahko izvedejo zelo hitro.

Kaj je naslednje za GPU?

Zmogljivost grafičnih procesorjev za drobljenje števila se vztrajno povečuje zaradi povečanja števila jeder in njihovih hitrosti delovanja. Te izboljšave so predvsem posledica izboljšav v proizvodnji čipov s strani podjetij, kot je npr TSMC na Tajvanu.

Velikost posameznih tranzistorjev - osnovnih komponent katerega koli računalniškega čipa - se zmanjšuje, kar omogoča, da se več tranzistorjev postavi v enako količino fizičnega prostora.

Vendar to ni celotna zgodba. Čeprav so tradicionalni grafični procesorji uporabni za računalniške naloge, povezane z umetno inteligenco, niso optimalni.

Tako kot so bili grafični procesorji prvotno zasnovani za pospeševanje računalnikov z zagotavljanjem specializirane obdelave za grafiko, obstajajo pospeševalniki, ki so zasnovani za pospešitev nalog strojnega učenja. Te pospeševalnike pogosto imenujemo GPU podatkovnega centra.

Nekateri izmed najbolj priljubljenih pospeševalnikov, ki so jih izdelala podjetja, kot sta AMD in Nvidia, so se začeli kot tradicionalni grafični procesorji. Sčasoma so se njihove zasnove razvile za boljše obvladovanje različnih nalog strojnega učenja, na primer s podpiranjem učinkovitejšega »lebdenje možganov” format številke.

Drugi pospeševalci, kot je Googlov enote za obdelavo tenzorjev in Tenstorrent Tensix jedra, so bili zasnovani od začetka za pospešitev globokih nevronskih mrež.

Grafični procesorji podatkovnih centrov in drugi pospeševalniki umetne inteligence imajo običajno bistveno več pomnilnika kot tradicionalne dodatne kartice GPE, kar je ključnega pomena za usposabljanje velikih modelov umetne inteligence. Večji ko je model AI, bolj zmogljiv in natančen je.

Za dodatno pospešitev usposabljanja in obvladovanje še večjih modelov umetne inteligence, kot je ChatGPT, je mogoče številne grafične procesorje podatkovnega centra združiti v superračunalnik. To zahteva bolj zapleteno programsko opremo za pravilno izkoriščanje razpoložljive moči drobljenja številk. Drug pristop je, da ustvarite en sam zelo velik pospeševalnik, kot je "procesor na rezinah” produkcije Cerebras.

So specializirani čipi prihodnost?

Tudi procesorji niso mirovali. Najnovejši procesorji AMD in Intel imajo vgrajena nizkonivojska navodila, ki pospešijo drobljenje številk, ki ga zahtevajo globoke nevronske mreže. Ta dodatna funkcionalnost v glavnem pomaga pri nalogah »sklepanja«, to je pri uporabi modelov AI, ki so bili že razviti drugje.

Za usposabljanje modelov umetne inteligence so še vedno potrebni veliki GPU podobni pospeševalci.

Možno je ustvariti vedno več specializiranih pospeševalnikov za specifične algoritme strojnega učenja. Pred kratkim je na primer podjetje Groq izdelalo "enota za jezikovno obdelavo” (LPU), posebej zasnovan za izvajanje velikih jezikovnih modelov po vzoru ChatGPT.

Vendar ustvarjanje teh specializiranih procesorjev zahteva znatna inženirska sredstva. Zgodovina kaže, da uporaba in priljubljenost katerega koli danega algoritma strojnega učenja ponavadi doseže vrhunec in nato upade – zato lahko draga specializirana strojna oprema hitro zastara.

Za povprečnega potrošnika pa to verjetno ne bo problem. GPE-ji in drugi čipi v izdelkih, ki jih uporabljate, bodo verjetno tiho postajali hitrejši.

Ta članek je ponovno objavljen Pogovor pod licenco Creative Commons. Preberi Originalni članek.

Kreditno slike: Nvidia

Časovni žig:

Več od Središče singularnosti