Hva er en GPU? Sjetongene som driver AI Boom, og hvorfor de er verdt billioner

Hva er en GPU? Sjetongene som driver AI Boom, og hvorfor de er verdt billioner

Hva er en GPU? Brikkene som driver AI-boomen, og hvorfor de er verdt billioner av PlatoBlockchain Data Intelligence. Vertikalt søk. Ai.

Mens verden skynder seg å bruke den siste bølgen av AI-teknologier, har ett stykke høyteknologisk maskinvare blitt en overraskende varm vare: grafikkbehandlingsenheten, eller GPU.

En topp-of-the-line GPU kan selges for titusenvis av dollar, og den ledende produsenten Nvidia har sett sin markedsverdi sveve forbi 2 billioner dollar ettersom etterspørselen etter produktene øker.

GPUer er heller ikke bare avanserte AI-produkter. Det er også mindre kraftige GPUer i telefoner, bærbare datamaskiner og spillkonsoller.

Nå lurer du sikkert på: Hva er en GPU, egentlig? Og hva gjør dem så spesielle?

Hva er en GPU?

GPUer ble opprinnelig først og fremst designet for å raskt generere og vise komplekse 3D-scener og objekter, for eksempel de som er involvert i videospill og datastyrt design programvare. Moderne GPUer håndterer også oppgaver som f.eks dekomprimering videostrømmer.

"Hjernen" til de fleste datamaskiner er en brikke som kalles en sentral prosesseringsenhet (CPU). CPUer kan brukes til å generere grafiske scener og dekomprimere videoer, men de er vanligvis langt tregere og mindre effektive til disse oppgavene sammenlignet med GPUer. CPUer er bedre egnet for generelle beregningsoppgaver, som tekstbehandling og surfing på nettsider.

Hvordan er GPUer forskjellig fra CPUer?

En typisk moderne CPU består av mellom 8 og 16 "kjerner", som hver kan behandle komplekse oppgaver på en sekvensiell måte.

GPUer, derimot, har tusenvis av relativt små kjerner, som er designet for å alle arbeide samtidig ("parallelt") for å oppnå rask total prosessering. Dette gjør dem godt egnet for oppgaver som krever et stort antall enkle operasjoner som kan gjøres samtidig, i stedet for en etter en.

Tradisjonelle GPUer kommer i to hovedvarianter.

For det første er det frittstående brikker, som ofte kommer i tilleggskort for store stasjonære datamaskiner. For det andre er GPUer kombinert med en CPU i samme brikkepakke, som ofte finnes i bærbare datamaskiner og spillkonsoller som PlayStation 5. I begge tilfeller styrer CPU hva GPUen gjør.

Hvorfor er GPUer så nyttige for AI?

Det viser seg at GPU-er kan brukes til å gjøre mer enn å generere grafiske scener.

Mange av maskinlæringsteknikkene bak kunstig intelligens, Eksempel dype nevrale nettverk, stole sterkt på ulike former for matrisemultiplikasjon.

Dette er en matematisk operasjon hvor svært store sett med tall multipliseres og summeres sammen. Disse operasjonene er godt egnet for parallell prosessering og kan derfor utføres veldig raskt av GPUer.

Hva er det neste for GPUer?

Den tallknusende dyktigheten til GPU-er øker stadig på grunn av økningen i antall kjerner og deres driftshastigheter. Disse forbedringene er først og fremst drevet av forbedringer i brikkeproduksjon av selskaper som f.eks TSMC i Taiwan.

Størrelsen på individuelle transistorer - de grunnleggende komponentene til enhver databrikke - reduseres, slik at flere transistorer kan plasseres i samme mengde fysisk plass.

Det er imidlertid ikke hele historien. Mens tradisjonelle GPUer er nyttige for AI-relaterte beregningsoppgaver, er de ikke optimale.

Akkurat som GPU-er opprinnelig ble designet for å akselerere datamaskiner ved å tilby spesialisert prosessering for grafikk, finnes det akseleratorer som er designet for å øke hastigheten på maskinlæringsoppgaver. Disse akseleratorene blir ofte referert til som datasenter-GPUer.

Noen av de mest populære akseleratorene, laget av selskaper som AMD og Nvidia, startet som tradisjonelle GPUer. Over tid har designene deres utviklet seg til å bedre håndtere ulike maskinlæringsoppgaver, for eksempel ved å støtte de mer effektive "hjerneflyt" tallformat.

Andre akseleratorer, for eksempel Googles tensorbehandlingsenheter og Tenstorrents Ti seks kjerner, ble designet fra grunnen av for å øke hastigheten på dype nevrale nettverk.

Datasenter-GPUer og andre AI-akseleratorer kommer vanligvis med betydelig mer minne enn tradisjonelle GPU-tilleggskort, noe som er avgjørende for å trene store AI-modeller. Jo større AI-modellen er, jo mer dyktig og nøyaktig er den.

For å øke hastigheten på opplæringen og håndtere enda større AI-modeller, som ChatGPT, kan mange datasenter-GPUer slås sammen for å danne en superdatamaskin. Dette krever mer kompleks programvare for å utnytte den tilgjengelige tallknusingskraften på riktig måte. En annen tilnærming er å lage en enkelt veldig stor akselerator, slik som "prosessor i wafer-skala" produsert av Cerebras.

Er spesialiserte chips fremtiden?

CPUer har heller ikke stått stille. Nyere prosessorer fra AMD og Intel har innebygde instruksjoner på lavt nivå som fremskynder tallknusingen som kreves av dype nevrale nettverk. Denne tilleggsfunksjonaliteten hjelper hovedsakelig med "slutningsoppgaver" - det vil si å bruke AI-modeller som allerede er utviklet andre steder.

For å trene AI-modellene i utgangspunktet, trengs det fortsatt store GPU-lignende akseleratorer.

Det er mulig å lage stadig mer spesialiserte akseleratorer for spesifikke maskinlæringsalgoritmer. Nylig har for eksempel et selskap kalt Groq produsert en "språkbehandlingsenhet” (LPU) spesielt utviklet for å kjøre store språkmodeller i tråd med ChatGPT.

Å lage disse spesialiserte prosessorene krever imidlertid betydelige ingeniørressurser. Historien viser at bruken og populariteten til en gitt maskinlæringsalgoritme har en tendens til å toppe seg og deretter avta – så dyr spesialisert maskinvare kan raskt bli utdatert.

For den gjennomsnittlige forbrukeren vil det imidlertid neppe være et problem. GPU-ene og andre brikker i produktene du bruker vil sannsynligvis fortsette å bli raskere i det stille.

Denne artikkelen er publisert fra Den Conversation under en Creative Commons-lisens. Les opprinnelige artikkelen.

Bilde Credit: Nvidia

Tidstempel:

Mer fra Singularity Hub