Meta dezvăluie modelul de segmentare a imaginii AI, SAM

Meta dezvăluie modelul de segmentare a imaginii AI, SAM

Meta Unveils AI Image Segmentation Model, SAM PlatoBlockchain Data Intelligence. Vertical Search. Ai.

Alphabet Inc. Google a împărtășit informații despre supercalculatoarele pe care le folosește pentru a antrena modele AI, susținând că sunt eficiente din punct de vedere energetic și mai rapide decât Al lui Nvidia Cip A100. Google a produs cipul său personalizat numit Tensor Processing Unit (TPU), care se află la a patra generație.

Potrivit gigantului tehnologic, compania folosește cipurile pentru mai mult de 90% din activitatea companiei de formare AI. Google adaugă cip-ul alimentează date prin modele pentru a le face practice la sarcini precum textele umane sau pentru a genera imagini.

Ideal, TPU-urile sunt proiectate pentru a accelera faza de inferență a rețelelor neuronale profunde (DNN), care sunt utilizate în multe aplicații de învățare automată, cum ar fi recunoașterea imaginilor, recunoașterea vorbirii, procesarea limbajului natural și multe altele. TPU-urile sunt, de asemenea, folosite pentru antrenarea DNN-urilor.

De asemenea, se va citi: Twitter în apă caldă legală în timp ce Germania amenință cu amendă

Marți, Google a publicat o lucrare științifică explicând cum a înșirat mai mult de 4 000 de jetoane. Potrivit companiei, a folosit comutatoare optice personalizate pentru a obține mașini individuale într-un singur loc.

În lucrarea științifică, Google a spus că pentru sisteme de dimensiuni comparabile, cipurile sale sunt de până la 1.7 ori mai rapide și de 1.9 ori mai eficiente din punct de vedere energetic decât un sistem bazat pe cipul Nvidia A100 care a fost pe piață în același timp cu a patra generație TPU.

Sunt necesare mai multe îmbunătățiri

Analiștii sunt de părere că piața cipurilor de inferență de date va crește rapid, așa cum spun companiile Tehnologii AI în produsele lor. Cu toate acestea, companii precum Google lucrează deja la modul de a menține capacul la costurile suplimentare pe care acest lucru le va adăuga, iar unul dintre costuri este electricitatea.

Modele de limbaj mari care conduc produse precum Google Bard sau OpenAI Chat GPT au crescut foarte mult în dimensiune. De fapt, sunt mult prea mari pentru a fi stocate pe un singur cip.

Ca atare, îmbunătățirea acestor conexiuni a devenit un punct cheie pentru competiția între companiile care construiesc supercalculatoare AI.

În plus, aceste modele sunt împărțite în mii de cipuri și lucrează împreună săptămâni sau mai multe pentru a antrena modelul.

Cel mai important model de limbă dezvăluit public de către Google până în prezent, PaLM, a fost instruit prin împărțirea lui în două dintre cele 4 000 de supercomputere cu cip pe parcursul a 50 de zile.

Potrivit companiei, supercalculatoarele sale facilitează configurarea conexiunilor între cipuri din mers.

„Comutarea circuitelor facilitează rutarea componentelor defecte”, au spus Norm Jouppi, coleg Google și inginerul distins Google, David Patterson, într-o postare de blog despre sistem.

„Această flexibilitate ne permite chiar să schimbăm topologia interconexiunii supercomputerelor pentru a accelera performanța unui model ML (învățare automată)”.

Nu există nicio comparație conform Google

Nvidia domină piața pentru antrenarea modelelor AI cu cantități uriașe de date. Cu toate acestea, după ce aceste modele sunt instruite, ele sunt utilizate mai pe scară largă în ceea ce se numește „inferență”, efectuând sarcini precum generarea de răspuns text la solicitări și decizia dacă o imagine conține o pisică.

Software major studiourile folosesc în prezent procesoarele Nvidia A100. Cipurile A100 sunt cele mai frecvent utilizate cipuri pe care studioul de dezvoltare le folosește pentru sarcinile de lucru de învățare automată AI.

A100 este potrivit pentru modele de învățare automată care alimentează instrumente precum ChatGPT, BingAI, sau Difuziune stabilă. Este capabil să efectueze multe calcule simple simultan, ceea ce este important pentru antrenament și utilizarea modelelor de rețele neuronale.

În timp ce Nvidia a refuzat cererile de comentarii de către Reuters, Google a spus că nu și-a comparat a patra generație cu cip-ul emblematic actual al Nvidia H100, deoarece a apărut pe piață după cipul Google și este realizat cu o tehnologie mai nouă.

Google a mai spus că compania are „o serie sănătoasă de sfaturi viitoare”, fără a oferi detalii mai fine, dar a sugerat că ar putea lucra la un nou TPU care va concura cu Nvidia H100.

Deși Google publică doar detalii despre supercomputerul său acum, acesta este online în interiorul companiei din 2020, într-un centru de date din comitatul Mayes, Oklahoma.

Google a spus că startup-ul Midjourney a folosit sistemul pentru a-și antrena modelul, care generează imagini proaspete după ce a fost alimentat cu câteva cuvinte de text.

Timestamp-ul:

Mai mult de la MetaNews