Nvidia kommer ned med lav kode i AI Enterprise-opdateringen PlatoBlockchain Data Intelligence. Lodret søgning. Ai.

Nvidia kommer ned med lav kode i AI Enterprise-opdatering

Nvidia sigter mod at tage smerten ud af maskinlæringsudvikling i denne uge med den seneste udgivelse af sin AI Enterprise-pakke, som inkluderer et lavkodeværktøj til maskinlæringsarbejdsbelastninger.

Opdateringen udvider også understøttelsen af ​​Red Hat OpenShift, Domino Data Labs ML-operationsplatform og Azures virtuelle maskiner i NVads A10 v5-serien.

Nvidia blev introduceret sidste sommer og fakturerer AI Enterprise som en one-stop-shop for udvikling og implementering af virksomhedens arbejdsbelastninger på sine GPU'er, uanset om de er implementeret on-prem eller i skyen.

Suiten er en samling værktøjer og rammer udviklet eller certificeret af Nvidia for at gøre bygning af AI/ML-applikationer mere tilgængelige for virksomheder i alle størrelser. I løbet af det seneste år har chipproducenten udrullet support til en række populære rammer og computerplatforme, såsom VMwares vSphere.

Den seneste udgivelse - udgave 2.1 — introducerer lav-kode support i form af Nvidias TAO Toolkit.

Lav kode er ideen om at abstrahere kompleksiteten, der er forbundet med manuel kodning af en applikation - i dette tilfælde tale- og AI-vision-arbejdsbelastninger - ved at bruge lidt eller ingen kode i processen. Nvidias TOA Toolkit har for eksempel REST API-understøttelse, vægtimport, TensorBoard-integrationer og adskillige præ-trænede modeller, designet til at forenkle processen med at samle en applikation.

Ud over lavkode-funktionalitet inkluderer udgivelsen også den seneste version af Nvidia RAPIDS (22.04) - en suite af open source-softwarebiblioteker og API'er rettet mod datavidenskabelige applikationer, der kører på GPU'er.

2.1-udgivelsen ser også, at chipproducenten certificerer disse værktøjer og arbejdsbelastninger til brug med en række forskellige software- og cloudplatforme.

For dem, der migrerer til containeriserede og cloud-native rammer, tilføjer opdateringen officiel støtte til at køre Nvidia-arbejdsbelastninger på Red Hats populære OpenShift Kubernetes-platform i den offentlige sky.

Red Hats container-runtime er det seneste applikationsmiljø, der er certificeret, og følger VMwares vSphere-integration sidste år. Domino Data Labs MLOps-tjeneste modtog også Nvidias velsignelse i denne uge. Virksomhedens platform giver værktøjer til at orkestrere GPU-accelererede servere til virtualisering af AI/ML-arbejdsbelastninger.

Og, hvad der burde overraske ingen, har team green certificeret Microsoft Azures seneste generation af Nvidia-baserede GPU-instanser, introduceret i marts. Forekomsterne er drevet af chipproducentens A10-accelerator, som kan opdeles i op til seks fraktioneret GPU'er ved hjælp af tidsmæssig udskæring.

Ud over Nvidia AI Enterprise-opdateringer introducerede virksomheden også tre nye laboratorier til sin LaunchPad-tjeneste, som giver virksomheder kortsigtet adgang til deres AI/ML-software og -hardware til bevis for koncepter og testformål.

De seneste laboratorier inkluderer multi-node træning til billedklassificering på vSphere med Tanzu, VMwares Kubernetes platform; svindeldetektion ved hjælp af XGBoost-modellen og Triton, Nvidias inferensserver; og objektdetektionsmodellering ved hjælp af TOA Toolkit og DeepStream, chipproducentens streaminganalysetjeneste. ®

Tidsstempel:

Mere fra Registret