Nvidia s'attaque au low code dans la mise à jour d'AI Enterprise PlatoBlockchain Data Intelligence. Recherche verticale. Aï.

Nvidia se lance avec peu de code dans la mise à jour AI Enterprise

Nvidia vise à simplifier le développement de l'apprentissage automatique cette semaine avec la dernière version de sa suite AI Enterprise, qui comprend une boîte à outils à faible code pour les charges de travail d'apprentissage automatique.

La mise à jour étend également la prise en charge de Red Hat OpenShift, de la plate-forme d'opérations ML de Domino Data Lab et des machines virtuelles de la série NVads A10 v5 d'Azure.

Introduit l'été dernier, Nvidia présente AI Enterprise comme un guichet unique pour le développement et le déploiement de charges de travail d'entreprise sur ses GPU, qu'ils soient déployés sur site ou dans le cloud.

La suite est un ensemble d'outils et de frameworks développés ou certifiés par Nvidia pour rendre la création d'applications AI/ML plus accessible aux entreprises de toutes tailles. Au cours de l'année écoulée, le fabricant de puces a déployé la prise en charge d'une variété de frameworks et de plates-formes de calcul populaires, comme vSphere de VMware.

La dernière version — Version 2.1 — introduit le support low-code sous la forme de la boîte à outils TAO de Nvidia.

Le code bas est l'idée d'abstraire la complexité associée au codage manuel d'une application - dans ce cas, les charges de travail de la parole et de la vision de l'IA - en utilisant peu ou pas de code dans le processus. La boîte à outils TOA de Nvidia, par exemple, comprend la prise en charge de l'API REST, l'importation de poids, les intégrations TensorBoard et plusieurs modèles pré-formés, conçus pour simplifier le processus d'assemblage d'une application.

Outre les fonctionnalités low-code, la version inclut également la dernière version de Nvidia RAPIDS (22.04) - une suite de bibliothèques de logiciels open source et d'API destinées aux applications de science des données exécutées sur des GPU.

La version 2.1 voit également le fabricant de puces certifier ces outils et charges de travail pour une utilisation avec une variété de logiciels et de plates-formes cloud.

Pour ceux qui migrent vers des frameworks conteneurisés et natifs du cloud, la mise à jour ajoute la prise en charge officielle de l'exécution des charges de travail Nvidia sur la populaire plate-forme OpenShift Kubernetes de Red Hat dans le cloud public.

Le conteneur d'exécution de Red Hat est le dernier environnement d'application à être certifié et fait suite à l'intégration vSphere de VMware l'année dernière. Le service MLOps de Domino Data Lab a également reçu la bénédiction de Nvidia cette semaine. La plate-forme de l'entreprise fournit des outils pour orchestrer des serveurs accélérés par GPU pour la virtualisation des charges de travail AI/ML.

Et, ce qui ne devrait surprendre personne, l'équipe verte a certifié la dernière génération d'instances GPU basées sur Nvidia de Microsoft Azure, introduit en mars. Les instances sont alimentées par l'accélérateur A10 du fabricant de puces, qui peut être divisé en jusqu'à six GPU fractionnaires à l'aide du découpage temporel.

En plus des mises à jour de Nvidia AI Enterprise, la société a également introduit trois nouveaux laboratoires dans son service LaunchPad, qui fournit aux entreprises un accès à court terme à ses logiciels et matériels AI/ML à des fins de preuve de concept et de test.

Les derniers laboratoires incluent une formation multi-nœuds pour la classification d'images sur vSphere avec Tanzu, la plate-forme Kubernetes de VMware ; détection des fraudes à l'aide du modèle XGBoost et de Triton, le serveur d'inférence de Nvidia ; et la modélisation de la détection d'objets à l'aide de TOA Toolkit et DeepStream, le service d'analyse de flux du fabricant de puces. ®

Horodatage:

Plus de Le registre