Meta stellt KI-Bildsegmentierungsmodell SAM vor

Meta stellt KI-Bildsegmentierungsmodell SAM vor

Meta stellt KI-Bildsegmentierungsmodell und SAM PlatoBlockchain Data Intelligence vor. Vertikale Suche. Ai.

Alphabet Inc's Google hat Informationen über Supercomputer geteilt, die zum Trainieren von KI-Modellen verwendet werden, und behauptet, sie seien energieeffizient und schneller als Nvidia A100-Chip. Google hat seinen kundenspezifischen Chip namens Tensor Processing Unit (TPU) hergestellt, der in der vierten Generation ist.

Nach Angaben des Technologieriesen nutzt das Unternehmen die Chips für mehr als 90 % der KI-Trainingsarbeit des Unternehmens. Google fügt dem Chip Daten durch Modelle hinzu, um sie bei Aufgaben wie menschenähnlichen Texten oder zum Generieren von Bildern praktisch zu machen.

Im Idealfall, TPUs werden entwickelt um die Inferenzphase von Deep Neural Networks (DNNs) zu beschleunigen, die in vielen maschinellen Lernanwendungen wie Bilderkennung, Spracherkennung, Verarbeitung natürlicher Sprache und mehr verwendet werden. TPUs werden auch zum Trainieren von DNNs verwendet.

Lies auch: Twitter in rechtlich heißem Wasser, da Deutschland mit einer Geldstrafe droht

Am Dienstag Google eine wissenschaftliche Arbeit veröffentlicht erklärt, wie es mehr als 4 000 der Chips bespannt hat. Nach Angaben des Unternehmens wurden speziell entwickelte optische Schalter verwendet, um einzelne Maschinen an einem Ort zusammenzubringen.

In dem wissenschaftlichen Artikel sagte Google, dass seine Chips für vergleichbar große Systeme bis zu 1.7-mal schneller und 1.9-mal energieeffizienter seien als ein System, das auf Nvidias A100-Chip basiert, der gleichzeitig mit der vierten Generation von TPU auf dem Markt war.

Weitere Verbesserungen erforderlich

Analysten sind der Ansicht, dass der Markt für Dateninferenz-Chips schnell wachsen wird, wie die Unternehmen sagen AI-Technologien in ihre Produkte. Firmen wie Google arbeiten jedoch bereits daran, die zusätzlichen Kosten, die dadurch entstehen, unter Kontrolle zu halten, und einer der Kosten ist der Strom.

Große Sprachmodelle, die Produkte wie z Google Bard oder OpenAIs ChatGPT sind enorm an Größe gewachsen. Tatsächlich sind sie viel zu groß, um sie auf einem einzigen Chip zu speichern.

Daher ist die Verbesserung dieser Verbindungen zu einem Schlüsselpunkt für den Wettbewerb zwischen Unternehmen geworden, die KI-Supercomputer bauen.

Darüber hinaus sind diese Modelle auf Tausende von Chips aufgeteilt und arbeiten wochenlang oder länger zusammen, um das Modell zu trainieren.

Das bisher bedeutendste öffentlich zugängliche Sprachmodell von Google, PaLM, wurde trainiert, indem es über einen Zeitraum von 4 Tagen auf zwei der 000 Chip-Supercomputer aufgeteilt wurde.

Nach Angaben des Unternehmens machen es seine Supercomputer einfach, Verbindungen zwischen Chips im laufenden Betrieb zu konfigurieren.

„Circuit Switching macht es einfach, fehlerhafte Komponenten zu umgehen“, sagten Google Fellow Norm Jouppi und Google Distinguished Engineer David Patterson in einem Blogbeitrag über das System

„Diese Flexibilität ermöglicht es uns sogar, die Topologie der Supercomputer-Verbindung zu ändern, um die Leistung eines ML-Modells (Maschinelles Lernen) zu beschleunigen.“

Laut Google gibt es keinen Vergleich

Nvidia dominiert den Markt für das Training von KI-Modellen mit riesigen Datenmengen. Nachdem diese Modelle jedoch trainiert wurden, werden sie für die sogenannte „Inferenz“ breiter eingesetzt, indem Aufgaben wie das Generieren von Textantworten auf Eingabeaufforderungen und die Entscheidung, ob ein Bild eine Katze enthält, ausgeführt werden.

Wichtige Software Studios verwenden derzeit Nvidias A100-Prozessoren. Die A100-Chips sind die am häufigsten verwendeten Chips, die Entwicklungsstudios für KI-Arbeitslasten für maschinelles Lernen verwenden.

Das A100 ist geeignet für maschinelle Lernmodelle, die Tools wie ChatGPT unterstützen, Bing-KI, oder stabile Diffusion. Es ist in der Lage, viele einfache Berechnungen gleichzeitig durchzuführen, was für das Training und die Verwendung neuronaler Netzwerkmodelle wichtig ist.

Während Nvidia Anfragen nach Kommentaren von ablehnte Reuters, sagte Google, dass sie ihre vierte Generation nicht mit Nvidias aktuellem Flaggschiff-Chip H100 verglichen haben, weil er nach dem Chip von Google auf den Markt kam und mit neuerer Technologie hergestellt wurde.

Google sagte auch, dass das Unternehmen „eine gesunde Pipeline an zukünftigen Tipps“ hat, ohne genauere Details zu nennen, deutete jedoch an, dass es möglicherweise an einem neuen TPU arbeitet, das mit Nvidia H100 konkurrieren wird.

Obwohl Google erst jetzt Details zu seinem Supercomputer veröffentlicht, ist dieser seit 2020 unternehmensintern in einem Rechenzentrum in Mayes County, Oklahoma, online.

Google sagte, dass das Startup Midjourney das System verwendet hat, um sein Modell zu trainieren, das neue Bilder generiert, nachdem es mit ein paar Wörtern Text gefüttert wurde.

Zeitstempel:

Mehr von MetaNews