Meta avslöjar AI-bildsegmenteringsmodell, SAM

Meta avslöjar AI-bildsegmenteringsmodell, SAM

Meta avslöjar AI-bildsegmenteringsmodell, SAM PlatoBlockchain Data Intelligence. Vertikal sökning. Ai.

Alphabet Inc Google har delat information om superdatorer som den använder för att träna AI-modeller och hävdar att de är strömsnåla och snabbare än Nvidias A100 chip. Google har tagit fram sitt anpassade chip kallat Tensor Processing Unit (TPU), som är i sin fjärde generation.

Enligt teknikjätten använder företaget chipsen för mer än 90 % av företagets AI-utbildningsarbete. Google lägger till att chippet matar data genom modeller för att göra dem praktiska vid uppgifter som mänskliga texter eller för att skapa bilder.

Helst TPU:er är designade för att påskynda slutledningsfasen för djupa neurala nätverk (DNN), som används i många maskininlärningsapplikationer som bildigenkänning, taligenkänning, naturlig språkbehandling och mer. TPU:er används också för att träna DNN:er.

Läs också: Twitter i Legal Hot Water eftersom Tyskland hotar böter

På tisdag Google publicerat en vetenskaplig artikel förklarar hur det har trätt mer än 4 000 av markerna. Enligt företaget använde man specialutvecklade optiska switchar för att få enskilda maskiner på ett ställe.

I den vetenskapliga artikeln sa Google att för system av jämförbar storlek är dess chips upp till 1.7 gånger snabbare och 1.9 gånger mer energieffektiva än ett system baserat på Nvidias A100-chip som fanns på marknaden samtidigt som fjärde generationens TPU.

Fler förbättringar krävs

Analytiker är av uppfattningen att marknaden för datainferenschip kommer att växa snabbt som företag uttrycker AI-teknik i sina produkter. Företag som Google arbetar dock redan med att hålla locket på de extra kostnader som detta kommer att lägga till, och en av kostnaderna är el.

Stora språkmodeller som driver produkter som t.ex Googles Bard eller OpenAI's ChatGPT har vuxit kraftigt i storlek. Faktum är att de är alldeles för stora för att lagra på ett enda chip.

Som sådan har förbättring av dessa anslutningar blivit en nyckelpunkt för konkurrensen bland företag som bygger AI-superdatorer.

Dessutom är dessa modeller uppdelade på tusentals marker och arbetar tillsammans i veckor eller mer för att träna modellen.

Googles hittills mest betydande offentligt avslöjade språkmodell, PaLM, tränades genom att dela upp den på två av de 4 000 superdatorerna med chip under 50 dagar.

Enligt företaget gör dess superdatorer det enkelt att konfigurera anslutningar mellan chips i farten.

"Kretsbyte gör det enkelt att dirigera runt felaktiga komponenter", sa Google Fellow Norm Jouppi och Google Distinguished Engineer David Patterson i ett blogginlägg om systemet

"Denna flexibilitet tillåter oss till och med att ändra topologin för superdatorsammankopplingen för att påskynda prestandan hos en ML-modell (maskininlärning)."

Det finns ingen jämförelse enligt Google

Nvidia dominerar marknaden för träning av AI-modeller med enorma mängder data. Men efter att dessa modeller har tränats kommer de att användas mer i det som kallas "inferens" genom att utföra uppgifter som att generera textsvar på uppmaningar och bestämma om en bild innehåller en katt.

Stor programvara studios använder för närvarande Nvidias A100-processorer. A100-chippen är de mest använda chipsen som utvecklingsstudion använder för AI-maskininlärning.

Smakämnen A100 passar för maskininlärningsmodeller som driver verktyg som ChatGPT, BingAI, eller stabil diffusion. Den kan utföra många enkla beräkningar samtidigt, vilket är viktigt för träning och användning av neurala nätverksmodeller.

Medan Nvidia tackade nej till förfrågningar om kommentarer av Reuters, sa Google att de inte jämförde sin fjärde generation med Nvidias nuvarande flaggskepp H100-chip eftersom det kom till marknaden efter Googles chip, och är tillverkat med nyare teknik.

Google sa också att företaget har "en hälsosam pipeline av framtida tips", utan att ge finare detaljer, men antydde att det kanske arbetar på en ny TPU som kommer att konkurrera med Nvidia H100.

Även om Google bara släpper detaljer om sin superdator nu, har den varit online inom företaget sedan 2020 i ett datacenter i Mayes County, Oklahoma.

Google sa att startup Midjourney använde systemet för att träna sin modell, som genererar nya bilder efter att ha matats med några ord med text.

Tidsstämpel:

Mer från MetaNews