Dell erweitert sein Portfolio an KI-Plattformen um Nvidia-GPUs

Dell erweitert sein Portfolio an KI-Plattformen um Nvidia-GPUs

Dell erweitert sein Portfolio der KI-Plattform PlatoBlockchain Data Intelligence um Nvidia-GPUs. Vertikale Suche. Ai.

Dell hat seine KI-Flagge mit seinen neuesten Angeboten fest an Nvidias Mast gebunden. Dazu gehören eine vollständig integrierte End-to-End-Plattform für Unternehmenskunden, die ihre eigene KI aufbauen und betreiben möchten, sowie aktualisierte Serverunterstützung für Nvidias kommende GPUs, skalierbare Speicher und professionelle Dienstleistungen.

Wird bei Nvidia bekannt gegeben AGB-Veranstaltung Heute in San Jose kombiniert Dells Portfolio an KI-Produkten seine Hardware mit GPUs, Netzwerken und KI-Software von Nvidia, um der erwarteten hohen Nachfrage nach KI-Unterstützung gerecht zu werden.

Dell aktualisiert außerdem seine PowerEdge-Server, um GPUs zu unterstützen, wie Nvidia auf der GTC, dem Beschleunigungschampion, im Detail vorstellt angedeutet früher in diesem Monat. Das Update dreht sich hauptsächlich um sein Flaggschiff-KI-System, das XE9680, das darauf ausgelegt ist, bis zu 8 GPUs in einem einzigen Gehäuse unterzubringen.

Das System unterstützt nun die H200-GPU sowie die kommenden Blackwell-basierten B100 und B200, die separat behandelt werden Reg Artikel mit Einzelheiten zu Nvidias Ankündigungen auf der GTC. Dell gab außerdem bekannt, dass der XE9680 erstmals um eine Flüssigkeitskühlung erweitert wird, um das B200-Produkt zu unterstützen.

Laut Varun Chhabra, SVP für Infrastruktur und Telekommunikationsmarketing bei Dell, bietet Dell mit diesem Update „ultimative Nvidia-GPU-Flexibilität“, „angefangen beim heute verfügbaren H100 bis hin zum H200 oder in Zukunft dem B100 und dem B200“.

Der texanische IT-Riese wird auch Nvidias GB200 Superchip unterstützen – den Nachfolger des GH200, der über eine Blackwell-GPU anstelle des Hopper des aktuellen Produkts verfügen wird – es ist jedoch nicht klar, wann dieser verfügbar sein wird.

Dies ist nicht die erste Welle von KI-Produkten von Dell. Letztes Jahr wurde eine eingeführt validierte Plattform für Inferenzen, gefolgt von einem weiteren for Modellanpassung und -tuning.

Jetzt füllt es die letzten Teile der KI-Pipeline mit Dell Generative AI Solutions for Model Training und Dell Generative AI Solutions for Retrieval-Augmented Generation (RAG) – letzteres ermöglicht es Kunden, die Genauigkeit von KI-Modellen durch Einbeziehung zu verbessern ihre eigenen proprietären Daten.

Verwirrend ist, dass Dell auch eine separate, vollständig integrierte KI-Lösung namens Dell AI Factory mit Nvidia ankündigt, die gemeinsam von Nvidia und Dell Services bereitgestellt wird. Dies umfasst ein Rack-Design unter Verwendung von Dell-Systemen mit GPUs, Nvidias Spectrum-X-Netzwerk sowie der AI Enterprise Suite und dem NeMo-Framework für große Sprachmodelle (LLMs).

„Was wir bei Unternehmen festgestellt haben, ist, dass die häufigste Frage lautet: ‚Geben Sie uns einen einfachen Knopf – geben Sie uns eine Möglichkeit, KI-Lösungen schnell und mit kürzerer Zeit bis zur Wertschöpfung bereitzustellen‘, und genau das leistet die Dell AI Factory mit Nvidia“, erklärte Chhabra.

Dell AI Factory mit Nvidia ist weltweit über traditionelle Kanäle und sein Apex IT-as-a-Service-Angebot verfügbar. Ab sofort sind auch die Dell Generative AI Solutions with Nvidia – RAG verfügbar, während Dell Generative AI Solutions with Nvidia – Model Training im April verfügbar sein wird.

Das texanische Unternehmen setzte die Liebe des Big D zu Nvidia fort und erklärte, dass seine PowerScale-NAS-Plattform (Network Attached Storage) das erste Ethernet-Speichersystem sei, das für die Verwendung mit Nvidia validiert wurde DGX SuperPOD KI-Infrastruktur. Letzteres ist ein Cluster benutzerdefinierter Server, die mit GPUs für die KI-Verarbeitung vollgestopft sind.

Da es sich bei der PowerScale-Plattform um eine Scale-out-Architektur handelt, die auf bis zu 252 Knoten erweitert werden kann, kann sie „alle Benchmark-Anforderungen für DGX SuperPOD problemlos übertreffen“, behauptete Dell.

Eine weitere Ankündigung betrifft Dell Data Lakehouse für KI, das ab dem 19. März verfügbar sein wird. Dabei handelt es sich um die „offene, moderne Data Lakehouse“-Plattform von Dell gab bekannt, dass es sich entwickelt letztes Jahr in Zusammenarbeit mit Starburst, um eine breite Palette von KI-Workloads und -Analysen zu unterstützen.

Laut Dell handelt es sich hierbei um eine Verbundlösung, die es Kunden ermöglichen soll, viel schneller auf ihre Daten zuzugreifen. Dabei wird die Datenbewegung durch die Erkennung, Abfrage und Verarbeitung von Daten vor Ort, auch am Netzwerkrand, minimiert.

„Es hilft bei der Optimierung für KI mit einem vollständigen End-to-End-Angebot über den gesamten Stack hinweg, das vollständig getestet und integriert ist“, erklärte Greg Findlen, Dells SVP für KI- und Datenverwaltungslösungen.

Schließlich erweitert Dell seine professionellen Dienstleistungen für KI um Angebote, die Kunden bei der Bereitstellung unterstützen – einschließlich Beratungsleistungen für das Dell Data Lakehouse. Außerdem kommen Infrastructure Deployment Services für Model Training, die ab dem 29. März an ausgewählten Standorten verfügbar sind, und Implementation Services für RAG, die ab dem 31. Mai an ausgewählten Standorten verfügbar sind. Beratungsdienste für GenAI Data Security werden ab dem 29. März auch in ausgewählten Ländern verfügbar sein.

Anfang des Monats behauptete ein Rechenzentrumsbericht der Analysten von Omdia, dass die Bedeutung von Nvidia für den Servermarkt inzwischen so groß sei, dass sie es sei praktisch ein „Königsmacher“, und eine enge Zusammenarbeit mit diesem Unternehmen wäre für jeden Serverhersteller, der seinen Marktanteil in diesem Jahr vergrößern möchte, von entscheidender Bedeutung. Dies ist offensichtlich eine Lektion, die sich Dell zu Herzen genommen hat. ®

Zeitstempel:

Mehr von Das Register