Nvidia renunță la codul scăzut în actualizarea AI Enterprise PlatoBlockchain Data Intelligence. Căutare verticală. Ai.

Nvidia scapă cu cod redus în actualizarea AI Enterprise

Nvidia își propune să elimine durerea din dezvoltarea învățării automate săptămâna aceasta cu cea mai recentă versiune a suitei sale AI Enterprise, care include un set de instrumente low-code pentru sarcinile de lucru de învățare automată.

Actualizarea extinde, de asemenea, suportul pentru Red Hat OpenShift, platforma de operațiuni ML a Domino Data Lab și mașinile virtuale din seria NVads A10 v5 de la Azure.

Introdus vara trecută, Nvidia prezintă AI Enterprise drept un ghișeu unic pentru dezvoltarea și implementarea sarcinilor de lucru ale întreprinderii pe GPU-urile sale, indiferent dacă acestea sunt implementate on-prem sau în cloud.

Suita este o colecție de instrumente și cadre dezvoltate sau certificate de Nvidia pentru a face construirea de aplicații AI/ML mai accesibilă pentru întreprinderile de toate dimensiunile. În ultimul an, producătorul de cipuri a lansat suport pentru o varietate de cadre și platforme de calcul populare, cum ar fi vSphere de la VMware.

Cea mai recentă lansare - Versiunea 2.1 — introduce suport low-code sub forma setului de instrumente TAO al Nvidia.

Low code este ideea de a abstrage complexitatea asociată cu codificarea manuală a unei aplicații - în acest caz vorbire și încărcături de lucru AI - folosind puțin sau deloc cod în proces. Setul de instrumente TOA al Nvidia, de exemplu, oferă suport REST API, import de greutăți, integrări TensorBoard și mai multe modele pre-antrenate, concepute pentru a simplifica procesul de asamblare a unei aplicații.

Pe lângă funcționalitatea low-code, versiunea include și cea mai recentă versiune a Nvidia RAPIDS (22.04) — o suită de biblioteci de software open source și API-uri destinate aplicațiilor de știință a datelor care rulează pe GPU.

Versiunea 2.1 vede, de asemenea, producătorul de cipuri certificând aceste instrumente și sarcini de lucru pentru a fi utilizate cu o varietate de software și platforme cloud.

Pentru cei care migrează către cadre containerizate și native din cloud, actualizarea adaugă suport oficial pentru rularea sarcinilor de lucru Nvidia pe populara platformă Red Hat OpenShift Kubernetes în cloud public.

Durata de rulare a containerelor Red Hat este cel mai recent mediu de aplicație certificat și urmează integrării vSphere de anul trecut de la VMware. Serviciul MLOps de la Domino Data Lab a primit și binecuvântarea Nvidia în această săptămână. Platforma companiei oferă instrumente pentru orchestrarea serverelor accelerate de GPU pentru virtualizarea sarcinilor de lucru AI/ML.

Și, în ceea ce nu ar trebui să surprindă pe nimeni, team green a certificat cea mai recentă generație Microsoft Azure de instanțe GPU bazate pe Nvidia, introdus în martie. Instanțele sunt alimentate de acceleratorul A10 al producătorului de cipuri, care poate fi împărțit în până la șase GPU-uri fracționale folosind tăierea temporală.

Pe lângă actualizările Nvidia AI Enterprise, compania a introdus și trei noi laboratoare la serviciul său LaunchPad, care oferă întreprinderilor acces pe termen scurt la software-ul și hardware-ul AI/ML pentru dovezi de concepte și teste.

Cele mai recente laboratoare includ instruire cu mai multe noduri pentru clasificarea imaginilor pe vSphere cu Tanzu, platforma Kubernetes a VMware; detectarea fraudelor folosind modelul XGBoost și Triton, serverul de inferență al Nvidia; și modelarea de detectare a obiectelor folosind TOA Toolkit și DeepStream, serviciul de analiză în flux al producătorului de cipuri. ®

Timestamp-ul:

Mai mult de la Registrul