Nvidia kommer ner med låg kod i AI Enterprise-uppdateringen PlatoBlockchain Data Intelligence. Vertikal sökning. Ai.

Nvidia kommer ner med låg kod i AI Enterprise-uppdateringen

Nvidia siktar på att ta bort smärtan av utvecklingen av maskininlärning den här veckan med den senaste utgåvan av sin AI Enterprise-svit, som inkluderar en lågkodsverktygssats för maskininlärning.

Uppdateringen utökar också stödet för Red Hat OpenShift, Domino Data Labs ML-operativplattform och Azures virtuella maskiner i NVads A10 v5-serien.

Nvidia introducerades förra sommaren och fakturerar AI Enterprise som en one-stop-shop för att utveckla och distribuera företagsarbetsbelastningar på sina GPU:er, oavsett om de distribueras på plats eller i molnet.

Sviten är en samling verktyg och ramverk utvecklade eller certifierade av Nvidia för att göra konstruktion av AI/ML-applikationer mer tillgängliga för företag av alla storlekar. Under det senaste året har chiptillverkaren rullat ut stöd för en mängd populära ramverk och beräkningsplattformar, som VMwares vSphere.

Den senaste utgåvan — version 2.1 — introducerar lågkodsstöd i form av Nvidias TAO Toolkit.

Låg kod är idén att abstrahera bort komplexiteten som är förknippad med att manuellt koda en applikation – i det här fallet tal och AI-vision arbetsbelastningar – med lite eller ingen kod i processen. Nvidias TOA Toolkit, till exempel, har REST API-stöd, viktimport, TensorBoard-integrationer och flera förtränade modeller, designade för att förenkla processen för att montera en applikation.

Förutom lågkodsfunktionalitet innehåller releasen även den senaste versionen av Nvidia RAPIDS (22.04) – en svit av mjukvarubibliotek med öppen källkod och API:er riktade mot datavetenskapliga applikationer som körs på GPU:er.

Utgåvan 2.1 ser också att chiptillverkaren certifierar dessa verktyg och arbetsbelastningar för användning med en mängd olika programvaror och molnplattformar.

För dem som migrerar till containeriserade och molnbaserade ramverk, lägger uppdateringen till officiellt stöd för att köra Nvidia-arbetsbelastningar på Red Hats populära OpenShift Kubernetes-plattform i det offentliga molnet.

Red Hats containerruntime är den senaste applikationsmiljön som har certifierats, och följer VMwares vSphere-integration förra året. Domino Data Labs MLOps-tjänst fick också Nvidias välsignelse denna vecka. Företagets plattform tillhandahåller verktyg för orkestrering av GPU-accelererade servrar för virtualisering av AI/ML-arbetsbelastningar.

Och, i vad som borde överraska ingen, har team green certifierat Microsoft Azures senaste generation av Nvidia-baserade GPU-instanser, introducerade i mars. Instanserna drivs av chiptillverkarens A10-accelerator, som kan delas upp i upp till sex fraktionerade GPU:er med temporal slicing.

Förutom Nvidia AI Enterprise-uppdateringar introducerade företaget också tre nya labb till sin LaunchPad-tjänst, som ger företag kortsiktig tillgång till dess AI/ML-mjukvara och hårdvara för bevis på koncept och testsyften.

De senaste laborationerna inkluderar träning med flera noder för bildklassificering på vSphere med Tanzu, VMwares Kubernetes-plattform; bedrägeriupptäckt med XGBoost-modellen och Triton, Nvidias slutledningsserver; och objektdetekteringsmodellering med hjälp av TOA Toolkit och DeepStream, chiptillverkarens strömningsanalystjänst. ®

Tidsstämpel:

Mer från Registret