Nvidia scende con il low code nell'aggiornamento AI Enterprise PlatoBlockchain Data Intelligence. Ricerca verticale. Ai.

Nvidia scende con il codice basso nell'aggiornamento di AI Enterprise

Nvidia mira a alleviare il dolore dello sviluppo dell'apprendimento automatico questa settimana con l'ultima versione della sua suite AI Enterprise, che include un toolkit a basso codice per carichi di lavoro di apprendimento automatico.

L'aggiornamento estende anche il supporto per Red Hat OpenShift, la piattaforma operativa ML di Domino Data Lab e le macchine virtuali della serie NVads A10 v5 di Azure.

Introdotto la scorsa estate, Nvidia considera AI Enterprise uno sportello unico per lo sviluppo e l'implementazione di carichi di lavoro aziendali sulle sue GPU, indipendentemente dal fatto che siano implementati in locale o nel cloud.

La suite è una raccolta di strumenti e framework sviluppati o certificati da Nvidia per rendere la creazione di applicazioni AI/ML più accessibile alle aziende di tutte le dimensioni. Nell'ultimo anno, il produttore di chip ha implementato il supporto per una varietà di framework e piattaforme di calcolo popolari, come vSphere di VMware.

L'ultima versione - Versione 2.1 — introduce il supporto low-code sotto forma di TAO Toolkit di Nvidia.

Il codice basso è l'idea di astrarre la complessità associata alla codifica manuale di un'applicazione, in questo caso i carichi di lavoro della vista e dell'intelligenza artificiale, utilizzando poco o nessun codice nel processo. TOA Toolkit di Nvidia, ad esempio, offre supporto API REST, importazione pesi, integrazioni TensorBoard e diversi modelli pre-addestrati, progettati per semplificare il processo di assemblaggio di un'applicazione.

Oltre alla funzionalità low-code, la versione include anche l'ultima versione di Nvidia RAPIDS (22.04), una suite di librerie software open source e API destinate alle applicazioni di data science in esecuzione su GPU.

La versione 2.1 vede anche il produttore di chip certificare questi strumenti e carichi di lavoro per l'uso con una varietà di piattaforme software e cloud.

Per coloro che migrano a framework containerizzati e cloud-native, l'aggiornamento aggiunge il supporto ufficiale per l'esecuzione di carichi di lavoro Nvidia sulla popolare piattaforma OpenShift Kubernetes di Red Hat nel cloud pubblico.

Il container runtime di Red Hat è l'ultimo ambiente applicativo ad essere certificato e segue l'integrazione di vSphere di VMware lo scorso anno. Anche il servizio MLOps di Domino Data Lab ha ricevuto la benedizione di Nvidia questa settimana. La piattaforma dell'azienda fornisce strumenti per orchestrare server con accelerazione GPU per la virtualizzazione dei carichi di lavoro AI/ML.

E, cosa che non dovrebbe sorprendere nessuno, team green ha certificato l'ultima generazione di istanze GPU basate su Nvidia di Microsoft Azure, introdotto a marzo. Le istanze sono alimentate dall'acceleratore A10 del produttore di chip, che può essere suddiviso in un massimo di sei GPU frazionarie utilizzando lo slicing temporale.

Oltre agli aggiornamenti di Nvidia AI Enterprise, l'azienda ha anche introdotto tre nuovi laboratori nel suo servizio LaunchPad, che fornisce alle aziende un accesso a breve termine al suo software e hardware AI/ML per prove di concetti e scopi di test.

Gli ultimi laboratori includono la formazione multi-nodo per la classificazione delle immagini su vSphere con Tanzu, la piattaforma Kubernetes di VMware; rilevamento delle frodi utilizzando il modello XGBoost e Triton, il server di inferenza di Nvidia; e modellazione del rilevamento di oggetti utilizzando TOA Toolkit e DeepStream, il servizio di analisi in streaming del produttore di chip. ®

Timestamp:

Di più da Il registro