Meta afslører AI Image Segmentation Model, SAM

Meta afslører AI Image Segmentation Model, SAM

Meta Unveils AI Image Segmentation Model, SAM PlatoBlockchain Data Intelligence. Vertical Search. Ai.

Alphabet Inc's Google har delt information om supercomputere, den bruger til at træne AI-modeller, og hævder, at de er strømeffektive og hurtigere end Nvidia's A100 chip. Google har produceret sin brugerdefinerede chip kaldet Tensor Processing Unit (TPU), som er i sin fjerde generation.

Ifølge tech-giganten bruger virksomheden chipsene til mere end 90 % af virksomhedens AI-træningsarbejde. Google tilføjer, at chippen feeder data gennem modeller for at gøre dem praktiske ved opgaver som menneskelignende tekster eller til at generere billeder.

Ideelt, TPU'er er designet at accelerere inferensfasen af ​​dybe neurale netværk (DNN'er), som bruges i mange maskinlæringsapplikationer såsom billedgenkendelse, talegenkendelse, naturlig sprogbehandling og mere. TPU'er bruges også til træning af DNN'er.

Læs også: Twitter i Legal Hot Water, da Tyskland truer med bøde

På tirsdag Google udgivet en videnskabelig artikel forklarer, hvordan den har spændt mere end 4 000 af chipsene. Ifølge firmaet brugte det specialudviklede optiske kontakter til at få individuelle maskiner ét sted.

I den videnskabelige artikel sagde Google, at for sammenlignelige systemer er dens chips op til 1.7 gange hurtigere og 1.9 gange mere strømeffektive end et system baseret på Nvidias A100-chip, der var på markedet samtidig med den fjerde generations TPU.

Flere forbedringer påkrævet

Analytikere er af den opfattelse, at markedet for datainferenschips vil vokse hurtigt, som virksomheder siger AI teknologier ind i deres produkter. Virksomheder som Google arbejder dog allerede på, hvordan de kan holde låget på de ekstra omkostninger, som det vil medføre, og en af ​​omkostningerne er elektricitet.

Store sprogmodeller, der driver produkter som f.eks Googles Bard eller OpenAI'er ChatGPT er vokset voldsomt i størrelse. Faktisk er de alt for store til at kunne opbevares på en enkelt chip.

Som sådan er forbedring af disse forbindelser blevet et nøglepunkt for konkurrence blandt virksomheder, der bygger AI-supercomputere.

Derudover er disse modeller fordelt på tusindvis af chips og arbejder sammen i uger eller mere for at træne modellen.

Googles hidtil mest betydningsfulde offentligt offentliggjorte sprogmodel, PaLM, blev trænet ved at opdele den på to af de 4 chip-supercomputere over 000 dage.

Ifølge firmaet gør dets supercomputere det nemt at konfigurere forbindelser mellem chips på farten.

"Circuit switching gør det nemt at rute rundt om fejlbehæftede komponenter," sagde Google Fellow Norm Jouppi og Google Distinguished Engineer David Patterson i et blogindlæg om systemet

"Denne fleksibilitet giver os endda mulighed for at ændre topologien af ​​supercomputerforbindelsen for at accelerere ydeevnen af ​​en ML (machine learning) model."

Der er ingen sammenligning ifølge Google

Nvidia dominerer markedet for træning af AI-modeller med enorme mængder data. Men efter at disse modeller er trænet, bliver de brugt mere i det, der kaldes "inferens" ved at udføre opgaver som at generere tekstsvar på prompter og beslutte, om et billede indeholder en kat.

Større software studier bruger i øjeblikket Nvidias A100-processorer. A100-chippene er de mest almindeligt anvendte chips, som udviklingsstudiet bruger til AI-maskinlærings-arbejdsbelastninger.

A100 er velegnet til maskinlæringsmodeller, der driver værktøjer som ChatGPT, BingAIeller stabil diffusion. Det er i stand til at udføre mange simple beregninger samtidigt, hvilket er vigtigt for træning og brug af neurale netværksmodeller.

Mens Nvidia afviste anmodninger om kommentarer af Reuters, sagde Google, at de ikke sammenlignede deres fjerde generation med Nvidias nuværende flagskib H100-chip, fordi den kom på markedet efter Googles chip og er lavet med nyere teknologi.

Google sagde også, at virksomheden har "en sund pipeline af fremtidige tips", uden at give finere detaljer, men antydede, at det muligvis arbejder på en ny TPU, der vil konkurrere med Nvidia H100.

Selvom Google først frigiver detaljer om sin supercomputer nu, har den været online i virksomheden siden 2020 i et datacenter i Mayes County, Oklahoma.

Google sagde, at startup Midjourney brugte systemet til at træne sin model, som genererer friske billeder efter at være blevet fodret med et par ord tekst.

Tidsstempel:

Mere fra MetaNews