Meta ujawnia model segmentacji obrazu AI, SAM

Meta ujawnia model segmentacji obrazu AI, SAM

Meta przedstawia model segmentacji obrazu AI, SAM PlatoBlockchain Data Intelligence. Wyszukiwanie pionowe. AI.

Alphabet Inc's Google podzielił się informacjami o superkomputerach, których używa do trenowania modeli AI, twierdząc, że są one energooszczędne i szybsze niż Nvidia Chip A100. Google wyprodukował swój niestandardowy układ o nazwie Tensor Processing Unit (TPU), który jest w czwartej generacji.

Według giganta technologicznego firma używa chipów przez ponad 90% swoich prac szkoleniowych w zakresie sztucznej inteligencji. Google dodaje chip, który przesyła dane przez modele, aby uczynić je praktycznymi w zadaniach takich jak teksty przypominające ludzi lub generowanie obrazów.

Idealnie, TPU są zaprojektowane aby przyspieszyć fazę wnioskowania głębokich sieci neuronowych (DNN), które są wykorzystywane w wielu aplikacjach uczenia maszynowego, takich jak rozpoznawanie obrazów, rozpoznawanie mowy, przetwarzanie języka naturalnego i nie tylko. TPU są również używane do szkolenia DNN.

Przeczytaj także: Twitter w legalnej gorącej wodzie, ponieważ Niemcy grożą grzywną

We wtorek Google opublikował artykuł naukowy wyjaśniając, w jaki sposób wyciągnął ponad 4 000 żetonów. Firma twierdzi, że wykorzystała opracowane na zamówienie przełączniki optyczne, aby poszczególne maszyny znajdowały się w jednym miejscu.

W artykule naukowym Google powiedział, że w przypadku systemów o porównywalnej wielkości, jego chipy są do 1.7 razy szybsze i 1.9 razy bardziej energooszczędne niż system oparty na chipie Nvidii A100, który był na rynku w tym samym czasie co TPU czwartej generacji.

Wymagane dalsze ulepszenia

Analitycy są zdania, że ​​rynek chipów do wnioskowania danych będzie rósł szybko, jak twierdzą firmy Technologie AI w swoje produkty. Firmy takie jak Google już jednak pracują nad tym, jak ograniczyć dodatkowe koszty, które to spowoduje, a jednym z kosztów jest energia elektryczna.

Duże modele językowe, które napędzają produkty, takie jak Google'a Bard lub OpenAI ChatGPT znacznie się rozrosły. W rzeczywistości są one zbyt duże, aby przechowywać je na jednym chipie.

W związku z tym poprawa tych połączeń stała się kluczowym punktem konkurencji między firmami budującymi superkomputery AI.

Ponadto modele te są podzielone na tysiące chipów i współpracują ze sobą przez tygodnie lub dłużej, aby wyszkolić model.

Najbardziej znaczący jak dotąd publicznie ujawniony model językowy Google, PaLM, został wyszkolony poprzez podzielenie go na dwa z 4 superkomputerów chipowych w ciągu 000 dni.

Według firmy jej superkomputery ułatwiają konfigurowanie połączeń między układami scalonymi w locie.

„Przełączanie obwodów ułatwia trasowanie wokół uszkodzonych komponentów” — napisali Google Fellow Norm Jouppi i Google Distinguished Engineer David Patterson w poście na blogu o systemie

„Ta elastyczność pozwala nam nawet zmienić topologię połączenia superkomputera, aby przyspieszyć działanie modelu ML (uczenie maszynowe)”.

Według Google nie ma porównania

Nvidia dominuje na rynku szkolenia modeli AI z ogromną ilością danych. Jednak po przeszkoleniu tych modeli są one szerzej wykorzystywane w tak zwanym „wnioskowaniu” poprzez wykonywanie zadań, takich jak generowanie odpowiedzi tekstowej na monity i decydowanie, czy obraz zawiera kota.

Główne oprogramowanie studia używają obecnie procesorów Nvidia A100. Chipy A100 są najczęściej używanymi chipami, których studio deweloperskie używa do zadań związanych z uczeniem maszynowym AI.

Połączenia A100 pasuje dla modeli uczenia maszynowego, które zasilają narzędzia takie jak ChatGPT, Sztuczna inteligencja Bingalub stabilna dyfuzja. Jest w stanie wykonywać jednocześnie wiele prostych obliczeń, co jest ważne przy trenowaniu i korzystaniu z modeli sieci neuronowych.

Podczas gdy Nvidia odrzuciła prośby o komentarz przez Reuters, Google powiedział, że nie porównał swojej czwartej generacji z obecnym flagowym układem H100 Nvidii, ponieważ pojawił się na rynku po chipie Google i jest wykonany przy użyciu nowszej technologii.

Google powiedział również, że firma ma „zdrową listę przyszłych wskazówek”, nie podając dokładniejszych szczegółów, ale zasugerował, że może pracować nad nowym TPU, który będzie konkurował z Nvidią H100.

Chociaż Google dopiero teraz ujawnia szczegóły dotyczące swojego superkomputera, jest on dostępny online w firmie od 2020 roku w centrum danych w hrabstwie Mayes w stanie Oklahoma.

Google powiedział, że startup Midjourney wykorzystał system do trenowania swojego modelu, który generuje świeże obrazy po podaniu kilku słów tekstu.

Znak czasu:

Więcej z MetaWiadomości