Nvidia legt mit Low Code im AI Enterprise Update PlatoBlockchain Data Intelligence los. Vertikale Suche. Ai.

Nvidia legt beim AI Enterprise Update mit Low Code nach

Nvidia will diese Woche mit der neuesten Version seiner AI Enterprise-Suite, die ein Low-Code-Toolkit für Machine-Learning-Workloads enthält, die Entwicklung des maschinellen Lernens erleichtern.

Das Update erweitert auch die Unterstützung für Red Hat OpenShift, die ML-Betriebsplattform von Domino Data Lab und die virtuellen Maschinen der NVads A10 v5-Serie von Azure.

Nvidia wurde letzten Sommer eingeführt und stellt AI Enterprise als One-Stop-Shop für die Entwicklung und Bereitstellung von Unternehmens-Workloads auf seinen GPUs in Rechnung, unabhängig davon, ob sie vor Ort oder in der Cloud bereitgestellt werden.

Die Suite ist eine Sammlung von Tools und Frameworks, die von Nvidia entwickelt oder zertifiziert wurden, um die Erstellung von KI/ML-Anwendungen für Unternehmen jeder Größe zugänglicher zu machen. Im vergangenen Jahr hat der Chiphersteller die Unterstützung für eine Vielzahl beliebter Frameworks und Rechenplattformen wie vSphere von VMware eingeführt.

Die neuste Ausgabe — Version 2.1 — führt Low-Code-Unterstützung in Form von Nvidias TAO-Toolkit ein.

Low-Code ist die Idee, die mit der manuellen Codierung einer Anwendung verbundene Komplexität – in diesem Fall Sprach- und KI-Vision-Workloads – mit wenig bis gar keinem Code zu abstrahieren. Das TOA-Toolkit von Nvidia bietet beispielsweise REST-API-Unterstützung, Gewichtungsimport, TensorBoard-Integrationen und mehrere vortrainierte Modelle, die den Prozess der Zusammenstellung einer Anwendung vereinfachen sollen.

Neben Low-Code-Funktionalität enthält die Version auch die neueste Version von Nvidia RAPIDS (22.04) – eine Suite von Open-Source-Softwarebibliotheken und APIs, die auf Data-Science-Anwendungen ausgerichtet sind, die auf GPUs ausgeführt werden.

Mit der Version 2.1 zertifiziert der Chiphersteller diese Tools und Workloads auch für die Verwendung mit einer Vielzahl von Software- und Cloud-Plattformen.

Für diejenigen, die zu Container- und Cloud-nativen Frameworks migrieren, fügt das Update offizielle Unterstützung für die Ausführung von Nvidia-Workloads auf der beliebten OpenShift Kubernetes-Plattform von Red Hat in der Public Cloud hinzu.

Die Container-Laufzeitumgebung von Red Hat ist die neueste zertifizierte Anwendungsumgebung und folgt auf die vSphere-Integration von VMware im letzten Jahr. Der MLOps-Dienst von Domino Data Lab erhielt diese Woche ebenfalls den Segen von Nvidia. Die Plattform des Unternehmens bietet Tools zur Orchestrierung GPU-beschleunigter Server für die Virtualisierung von KI/ML-Workloads.

Und was niemanden überraschen sollte: Team Green hat die neueste Generation von Nvidia-basierten GPU-Instanzen von Microsoft Azure zertifiziert. eingeführt März. Die Instanzen werden vom A10-Beschleuniger des Chipherstellers betrieben, der mithilfe von Temporal Slicing in bis zu sechs Teil-GPUs aufgeteilt werden kann.

Zusätzlich zu Nvidia AI Enterprise-Updates hat das Unternehmen auch drei neue Labs für seinen LaunchPad-Service eingeführt, der Unternehmen kurzfristigen Zugriff auf seine AI/ML-Software und -Hardware für Proof-of-Concepts und Testzwecke bietet.

Die neuesten Labs umfassen Multi-Node-Schulungen für die Image-Klassifizierung auf vSphere mit Tanzu, der Kubernetes-Plattform von VMware; Betrugserkennung mit dem XGBoost-Modell und Triton, dem Inferenzserver von Nvidia; und Objekterkennungsmodellierung mit dem TOA Toolkit und DeepStream, dem Streaming-Analytics-Service des Chipherstellers. ®

Zeitstempel:

Mehr von Das Register