Nvidia stellt „H200“ mit erweiterten KI-Funktionen vor

Nvidia stellt „H200“ mit erweiterten KI-Funktionen vor

Nvidia stellt „H200“ mit erweiterten KI-Funktionen vor PlatoBlockchain Data Intelligence. Vertikale Suche. Ai.

Der Chiphersteller Nvidia hat den H200-Chipsatz vorgestellt, der die Leistung für große Sprachmodelle (LLMs) steigern und größere KI-Systeme bewältigen wird.

Der neue Chip ist eine deutliche Weiterentwicklung des H100 mit fast doppelter Leistungsgeschwindigkeit und höheren Fähigkeiten. Nvidia hat angekündigt, dass der aktualisierte Chip im Jahr 2024 auf den Markt kommen wird.

Die Besonderheiten

Der neue Chip ersetzt den aktuellen H100 Chipsatz mit erheblichen Upgrades, insbesondere Speicher mit hoher Bandbreite, ein wichtiges Element, das die Datenverarbeitungsgeschwindigkeit definiert.

Der H200 kommt in Form von Speicher, wird die erste GPU mit HBM3e-Technologie ausgestattet sein. Es ist mit 141 GB Speicher mit 4.8 Terabyte pro Sekunde ausgestattet, was viel mehr ist als das H100 mit 80 GB Kapazität.

Laut NvidiaEin größerer Speicherplatz und Hochgeschwindigkeitsverarbeitungselemente sollen bessere und schnellere Antworten von KI-Diensten ermöglichen.

Einen Speicherlieferanten für den neuen Chipsatz nannte Nvidia nicht, mögliche Konkurrenten wie Micron Technology könnten den Speicher aber bereitgestellt haben, heißt es Englisch Jagran.

Während der KI-Wettlauf weitergeht, wurde der H200-Chip entwickelt, um der hohen Nachfrage nach höherer Effizienz und stärkeren Fähigkeiten gerecht zu werden.

Große Namen in der Pipeline

Microsoft Azure, Oracle Cloud Infrastructure, Google Cloud und Amazon Web Services sind die ersten Cloud-Dienstanbieter, die im zweiten Quartal 200 Zugriff auf den H2024-basierten Chip anbieten werden. Dazu kommen die spezialisierten KI-Cloud-Anbieter Lambda und CoreWeave , und Vultr.

„Wenn man sich ansieht, was auf dem Markt passiert, wachsen die Modellgrößen rasant … Das ist ein weiterer Beweis dafür, dass wir weiterhin schnell die neueste und beste Technologie einführen“, sagt Dion Harris, Leiter des Produktmarketings für Rechenzentren bei Nvidia, wurde zitiert.

Nach Angaben des Chipherstellers wird der neue H200 zu einer „Leistungssteigerung führen, die eine nahezu Verdoppelung der Interferenzgeschwindigkeit gegenüber Metas Llama 2 umfassen wird.“

Lies auch: Die China International Import Expo präsentiert KI- und Metaverse-Geräte

Die Signifikanz

Der neue H200 kommt mittendrin US-Exportbeschränkungen auf High-End-Chips, was sich auf den Chiphersteller auswirken könnte.

Dies ist darauf zurückzuführen, dass schätzungsweise 20 bis 25 % der Einnahmen aus Nvidias Rechenzentren aus China stammen. Aber das Unternehmen hat hat neue Bestellungen für KI-Chips ausgesetzt aus der asiatischen Wirtschaft und richtete seine Systeme auf andere Märkte aus.

Nach der Ankündigung des H200-Chipsatzes stiegen die Aktien von Nvidia um bis zu 1.5 % und erreichten am 486. November 13 US-Dollar, was 12 US-Dollar unter ihrem Allzeithoch von 502 US-Dollar lag.

Im bisherigen Jahresverlauf ist der Zähler um über 250 % gestiegen. Der Wachstumskurs des Unternehmens ist ebenfalls robust geblieben und es prognostiziert für das dritte Geschäftsquartal einen Umsatz von 16 Milliarden US-Dollar eine Steigerung um 170% gegenüber dem Vorjahr.

Nvidia kontrolliert etwa 80 % davon globaler Markt für KI-Chips. Unternehmen wie der ChatGPT-Hersteller OpenAI und Stability AI verlassen sich stark auf Nvidia-Technologie.

[Eingebetteten Inhalt]

Zeitstempel:

Mehr von MetaNews