Hvad er en GPU? Chips, der driver AI Boom, og hvorfor de er billioner værd

Hvad er en GPU? Chips, der driver AI Boom, og hvorfor de er billioner værd

What Is a GPU? The Chips Powering the AI Boom, and Why They’re Worth Trillions PlatoBlockchain Data Intelligence. Vertical Search. Ai.

Mens verden skynder sig at gøre brug af den seneste bølge af AI-teknologier, er ét stykke højteknologisk hardware blevet en overraskende varm vare: grafikbehandlingsenheden eller GPU.

En top-of-the-line GPU kan sælges for titusinder af dollars, og den førende producent Nvidia har set sin markedsvurdering svæve over 2 billioner dollars da efterspørgslen efter dets produkter stiger.

GPU'er er heller ikke kun avancerede AI-produkter. Der er også mindre kraftfulde GPU'er i telefoner, bærbare computere og spillekonsoller.

Nu tænker du sikkert: Hvad er en GPU egentlig? Og hvad gør dem så specielle?

Hvad er en GPU?

GPU'er blev oprindeligt designet primært til hurtigt at generere og vise komplekse 3D-scener og objekter, såsom dem involveret i videospil og computer hjulpet design software. Moderne GPU'er klarer også opgaver som f.eks dekomprimering videostreams.

"Hjernen" på de fleste computere er en chip kaldet en central processing unit (CPU). CPU'er kan bruges til at generere grafiske scener og dekomprimere videoer, men de er typisk langt langsommere og mindre effektive til disse opgaver sammenlignet med GPU'er. CPU'er er bedre egnet til generelle beregningsopgaver, såsom tekstbehandling og browsing af websider.

Hvordan er GPU'er forskellige fra CPU'er?

En typisk moderne CPU består af mellem 8 og 16"kerner,” som hver især kan behandle komplekse opgaver på en sekventiel måde.

GPU'er har på den anden side tusindvis af relativt små kerner, som er designet til at alle arbejder på samme tid ("parallelt") for at opnå hurtig overordnet behandling. Dette gør dem velegnede til opgaver, der kræver et stort antal simple operationer, som kan udføres på samme tid, frem for en efter en.

Traditionelle GPU'er kommer i to hovedvarianter.

For det første er der selvstændige chips, som ofte kommer i tilføjelseskort til store stationære computere. For det andet er GPU'er kombineret med en CPU i samme chippakke, som ofte findes i bærbare computere og spillekonsoller som PlayStation 5. I begge tilfælde styrer CPU'en, hvad GPU'en gør.

Hvorfor er GPU'er så nyttige til AI?

Det viser sig, at GPU'er kan genbruges til mere end at generere grafiske scener.

Mange af maskinlæringsteknikkerne bag kunstig intelligens, Såsom dybe neurale netværk, er stærkt afhængige af forskellige former for matrixmultiplikation.

Dette er en matematisk operation, hvor meget store sæt tal multipliceres og summeres sammen. Disse operationer er velegnede til parallel behandling og kan derfor udføres meget hurtigt af GPU'er.

Hvad er det næste for GPU'er?

GPU'ernes tal-knasende dygtighed stiger støt på grund af stigningen i antallet af kerner og deres driftshastigheder. Disse forbedringer er primært drevet af forbedringer i chipfremstillingen hos virksomheder som f.eks TSMC i Taiwan.

Størrelsen af ​​individuelle transistorer - de grundlæggende komponenter i enhver computerchip - er faldende, hvilket gør det muligt at placere flere transistorer i den samme mængde fysisk rum.

Det er dog ikke hele historien. Selvom traditionelle GPU'er er nyttige til AI-relaterede beregningsopgaver, er de ikke optimale.

Ligesom GPU'er oprindeligt blev designet til at accelerere computere ved at levere specialiseret behandling af grafik, er der acceleratorer, der er designet til at fremskynde maskinlæringsopgaver. Disse acceleratorer omtales ofte som datacenter GPU'er.

Nogle af de mest populære acceleratorer, lavet af virksomheder som AMD og Nvidia, startede som traditionelle GPU'er. Med tiden udviklede deres design sig til bedre at kunne håndtere forskellige maskinlæringsopgaver, for eksempel ved at understøtte de mere effektive "hjernen flyder” talformat.

Andre acceleratorer, såsom Googles tensorbehandlingsenheder og Tenstorrents Tiseks kerner, blev designet fra bunden til at fremskynde dybe neurale netværk.

Datacenter-GPU'er og andre AI-acceleratorer kommer typisk med betydeligt mere hukommelse end traditionelle GPU-tilføjelseskort, hvilket er afgørende for træning af store AI-modeller. Jo større AI-modellen er, jo mere dygtig og præcis er den.

For yderligere at fremskynde træningen og håndtere endnu større AI-modeller, såsom ChatGPT, kan mange datacenter-GPU'er samles til en supercomputer. Dette kræver mere kompleks software for korrekt at udnytte den tilgængelige talknagende kraft. En anden tilgang er at skabe en enkelt meget stor accelerator, såsom "processor i wafer-skala” produceret af Cerebras.

Er specialiserede chips fremtiden?

CPU'er har heller ikke stået stille. Nylige CPU'er fra AMD og Intel har indbyggede instruktioner på lavt niveau, der fremskynder den tal-knas, der kræves af dybe neurale netværk. Denne ekstra funktionalitet hjælper hovedsageligt med "inferens"-opgaver - det vil sige at bruge AI-modeller, der allerede er udviklet andre steder.

For at træne AI-modellerne i første omgang er der stadig brug for store GPU-lignende acceleratorer.

Det er muligt at skabe stadig mere specialiserede acceleratorer til specifikke maskinlæringsalgoritmer. For nylig har for eksempel en virksomhed ved navn Groq produceret en "sprogbehandlingsenhed” (LPU) specielt designet til at køre store sprogmodeller på linje med ChatGPT.

Men at skabe disse specialiserede processorer kræver betydelige tekniske ressourcer. Historien viser, at brugen og populariteten af ​​enhver given maskinlæringsalgoritme har en tendens til at toppe og derefter aftage - så dyr specialiseret hardware kan hurtigt blive forældet.

For den gennemsnitlige forbruger vil det dog næppe være et problem. GPU'erne og andre chips i de produkter, du bruger, bliver sandsynligvis ved med at blive hurtigere hurtigere.

Denne artikel er genudgivet fra The Conversation under en Creative Commons-licens. Læs oprindelige artikel.

Billede Credit: Nvidia

Tidsstempel:

Mere fra Singularitet Hub